网络爬虫 robots协议 robots.txt

匿名 (未验证) 提交于 2019-12-02 23:42:01
网络爬虫
网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重
要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页
的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬
虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的
链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步
要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫
抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;
对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
爬虫问题
1)骚扰问题
2)法律风险
3)隐私泄露
Robots协议
robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限
也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问
一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就
按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站
上所有没有被口令保护的页面。
例如:京东的Robots.txt
语法格式:
Disallow:
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一
Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个
需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!