Scrapy:运行爬虫程序的方式
Windows 10家庭中文版,Python 3.6.4,Scrapy 1.5.0, 在创建了爬虫程序后,就可以运行爬虫程序了。Scrapy中介绍了几种运行爬虫程序的方式,列举如下: -命令行工具之scrapy runspider(全局命令) -命令行工具之scrapy crawl(项目级命令) -scrapy.crawler.CrawlerProcess -scrapy.crawler.CrawlerRunner 注意 ,当系统中同时存在Python 2、Python 3时,孤的电脑直接执行scrapy命令使用的是Python 2,此时,需要在scrapy命令前添加“python3 -m”才可以使用Python 3,因此,请使用virtualenv建立虚拟环境运行scrapy等各种程序。 方式一:scrapy runspider命令(全局) 语法: scrapy runspider <spider_file.py> 还有一些配置项,可以使用scrapy runspider -h查看。 示例程序:文件名为baidu_com.py 1 # -*- coding: utf-8 -*- 2 import scrapy 3 4 class BaiduComSpider(scrapy.Spider): 5 name = ' baidu.com ' 6 allowed_domains = [