【爬虫学习笔记day56】6.6. scrapy-redis的官方文档源码分析参考:Scheduler
文章目录 6.6. scrapy-redis的官方文档源码分析参考:Scheduler TODO: add SCRAPY_JOB support. 6.6. scrapy-redis的官方文档源码分析参考:Scheduler scheduler.py 此扩展是对scrapy中自带的scheduler的替代(在settings的SCHEDULER变量中指出),正是利用此扩展实现crawler的分布式调度。其利用的数据结构来自于queue中实现的数据结构。 scrapy-redis所实现的两种分布式:爬虫分布式以及item处理分布式就是由模块scheduler和模块pipelines实现。上述其它模块作为为二者辅助的功能模块 import importlib import six from scrapy.utils.misc import load_object from . import connection TODO: add SCRAPY_JOB support. class Scheduler(object): “”“Redis-based scheduler”"" def __init__(self, server, persist=False, flush_on_start=False, queue_key='%(spider)s:requests', queue_cls=