基于scrapy-redis两种形式的分布式爬虫
[TOC] 基于scrapy-redis两种形式的分布式爬虫 1.scrapy框架是否可以自己实现分布式? - 不可以。原因有二。 其一:因为多台机器上部署的scrapy会各自拥有各自的调度器,这样就使得多台机器无法分配start_urls列表中的url。(多台机器无法共享同一个调度器) 其二:多台机器爬取到的数据无法通过同一个管道对数据进行统一的数据持久出存储。(多台机器无法共享同一个管道) 2.基于scrapy-redis组件的分布式爬虫 - scrapy-redis组件中为我们封装好了可以被多台机器共享的调度器和管道,我们可以直接使用并实现分布式数据爬取。 - 实现方式: 1.基于该组件的RedisSpider类 2.基于该组件的RedisCrawlSpider类 3.分布式实现流程:上述两种不同方式的分布式实现流程是统一的 3.1 下载scrapy-redis组件:pip install scrapy-redis 3.2 redis配置文件的配置: - 注释该行:bind 127.0.0.1,表示可以让其他ip访问redis - 将yes该为no:protected-mode no,表示可以让其他ip操作redis 3.3 修改爬虫文件中的相关代码: - 将爬虫类的父类修改成基于RedisSpider或者RedisCrawlSpider。注意