基于Scrapy分布式爬虫打造搜索引擎
一,学习目的 获取想要的知识 二,环境配置和基础知识铺垫 1.pycharm 的安装和简单使用 ide : pycharm 数据库:mysql , redis , elasticsearch 开发环境:virtualenv 2.mysql 和navicat的安装和使用 windows下安装python 虚拟环境的安装和配置 3级标题 爬取真实数据 Scrapy 突破反爬虫技术 Scrapy进阶开发 Scrapy redis分布式爬虫 elasticsearch django 实现搜索引擎 2级标题 来源: CSDN 作者: shlshlshk 链接: https://blog.csdn.net/shlshlshk/article/details/104095728