利用scrapy-client发布爬虫的远程服务器
一.环境准备 远程服务器必须装有scapyd,我们使用的机器必须有scrapy-client(我这里是windows),并确保这两者正常安装并启动。 二.客户端准备上传 首先进入到爬虫项目的根文件夹: scrapyd-deploy 这样就是成功了。 三.配置爬虫项目 打开爬虫项目中的scrapy.cfg文件,这个文件就是给scrapyd-deploy使用的 将url这行代码解掉注释,并且给设置你的部署名称 再次执行scrapyd-deploy -l 启动服务,可以看到设置的名称 四.打包项目 1.开始打包前,执行命令:scrapy list,这个命令执行成功说明可以打包了,如果没执行成功说明还有工作没完成 这边会显示的是我的爬虫项目中具有的爬虫名称:jd 2.执行打包命令: scrapyd-deploy 部署名称 -p 项目名称 如下显示表示scrapy项目打包成功 如果出现 版本不对,建议安装pip install scrapyd==1.1.1,直到你的egg文件夹中有项目即可 3.上传运行爬虫 curl http://远程ip:6800/schedule.json -d project=项目名称 -d spider=爬虫名称 执行后,如果出现 则爬虫运行成功 可以去网页中106.12