python爬虫模块理解

和自甴很熟 提交于 2020-01-28 12:36:11

Url管理器:

  用来管理要抓取的url和已抓取的url,防止重复抓取和循环抓取,url管理器的五个最小功能:

    1、添加url到容器中

    2、获取一个url

    3、判断url是否已在容器中

    4、判断是否还有待爬取的url

    5、将待爬取的url移到已爬取的url

网页下载器:

  网页下载器是爬虫的核心组件,它将url对应的互联网网页已html的形式保存在本地。目前有两种网页下载器,1:urllib2(python基础模块) 2:requests(第三库)

  urllib2三种下载网页的方法:

    1、简单方式下载

    2、添加data和http header

    3、添加特殊场景的处理器

import http.cookiejarimport urllib.requesturl = "http://www.baidu.com"print("one")response1 = urllib.request.urlopen(url)print(response1.getcode())print (len(response1.read()))print("two")request = urllib.request.Request(url)request.add_header("user-agent","Mozilla/5.0")response2 = urllib.request.urlopen(request)print(response2.getcode())print (len(response2.read()))print("three")cj = http.cookiejar.CookieJar()opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))urllib.request.install_opener(opener)response3 = urllib.request.urlopen(url)print(response3.getcode())print(response3.read())

网页解析器:

  从网页中提取有价值数据的工具,常用的网页解析器有以下三种,1、正则表达式,2、html.parser(自带的模块),3、beautiful Soup(第三方的插件),4、lxml;前面一种是基于字符串的解析,后面的三种是基于一种机构化的解析(DOM)。

response1 = urllib.request.urlopen(url)print(response1.getcode())print (len(response1.read()))
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!