1 import urllib.request # 导入模块
2 import urllib.parse
3
4 # 将网页赋给变量file
5 file = urllib.request.urlopen("http://www.baidu.com")
6
7 # 读取网页
8 data = file.read() # 读取全部内容,结果作为一个字符串变量
9 dataline = file.readline() # 读取一行的内容
10 datalines = file.readlines() # 读取全部内容,赋值给一个列表
11
12 # 存储网页
13 fhandle = open("./1.html","wb") # 以wb方式打开文件
14 fhandle.write(data) # 写入
15 fhandle.close() # 关闭文件
16
17 # 另一种方式,直接存储网页 使用urlretrieve
18 filename = urllib.request.urlretrieve("http://www.baidu.com",filename="./2.html")
19 urllib.request.urlcleanup() # 清除urlretrieve产生的缓存
20
21 #其他常用内容
22 file.info() # 输出对应网页的info
23 file.getcode() # 获取当前爬取网页的状态码,若返回值为200则正确,反之错误
24 file.geturl() # 获取爬取网页的url
25 urllib.parse.quote("http://www.baidu.com") # 对url中的非AscII码进行编码
26 urllib.parse.unquote("http%3A//www.baidu.com") # 解码,恢复成原来的网址
来源:https://www.cnblogs.com/buzhihuoyu/p/12404235.html