Python-Scrapy抓取百度数据并分析
抓取智联招聘和百度搜索的数据并进行分析,使用visual studio编写代码mongodb和SQLServer存储数据。使用scrapy框架结合 selenium爬取百度搜索数据,并进行简要的数据的分析!! 爬取前的页面分析: 打开百度搜索页面,并查看网页源代码,问题便出现,无法查看到页面源代码,如下,只是返回一个状态说明,这时可以确定页面数据是动态生成,常规的爬取行不通。 在浏览器中进行调试分析,可以发现需要定位使用的html元素,通过这一步至少可以将以下两个元素的XPATH或CSS Selector的表达式求解出来。 制定爬取方案 既然搜索页面的内容是动态生成,常规的http请求后无法获取数据,针对这种问题的解决方法: l 通过抓包工具,进行对http请求进行分析,找到实际数据请求的js代码后进行模拟请求获取数据,这种方法耗时耗力,且是无法适应页面更改的情况。 l 通过浏览器框架请求,并编写程序和浏览器通信获取数据分析,对于这种方法的选择有很多,如在windows上可以使用IE Browser控件,其他的可以使用其他内核的浏览器,这种方法的缺点是速度较慢。 l 这里选取的方法是使用 Selenium + Phantomjs的方法,这个结合scrapy也算是较为经典的一种方法。并且 Selenium + Phantomjs 也是作为Web应用程序进行自动化测试的一套方案。 l