之前我们说网站反爬虫的一个常用方法是检测ip,限制访问频率。所以我们要通过设置代理ip的办法绕过这个限制。有不少提供免费代理ip的网站,像https://www.xicidaili.com/nt/,我们可以从网站上拿到很多代理ip。但是这些ip并不是每个都能用的,或者说,没几个能用的。
我们可以用beautifulsoup分析网页,然后处理,提取代理ip列表,也可以用正则表达式进行匹配。用正则表达式会快一些。ip_url就是https://www.xicidaili.com/nt/,random_hearder就是一个随机获得请求头的函数。
def download_page(url):
headers = random_header()
data = requests.get(url, headers=headers)
return data
def get_proxies(page_num, ip_url):
available_ip = []
for page in range(1,page_num):
print("抓取第%d页代理IP" %page)
url = ip_url + str(page)
r = download_page(url)
r.encoding = 'utf-8'
pattern = re.compile('<td class="country">.*?alt="Cn" />.*?</td>.*?<td>(.*?)</td>.*?<td>(.*?)</td>', re.S)
ip_list = re.findall(pattern, r.text)
for ip in ip_list:
if test_ip(ip):
print('%s:%s通过测试,添加进可用代理列表' %(ip[0],ip[1]))
available_ip.append(ip)
time.sleep(10)print('抓取结束')
return available_ip
拿到ip后我们还需要对ip进行检测,确定这个ip可以用。怎么检测呢?我们可以用代理ip访问一个能显示访问ip的网站,然后检查请求结果。
def test_ip(ip,test_url='http://ip.tool.chinaz.com/'):
proxies={'http': ip[0]+':'+ip[1]}
try_ip=ip[0]
try:
r=requests.get(test_url, headers=random_header(), proxies=proxies)
if r.status_code==200:
r.encoding='gbk'
result=re.search('\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}',r.text)
result=result.group()
print(result)
if result[:9]==try_ip[:9]:print('%S:%s测试通过' % (ip[0],ip[1]))
return True
else:
print('%s:%s 携带代理失败,使用了本地IP' %(ip[0],ip[1]))
return False
else:
print('%s:%s 请求码不是200' %(ip[0],ip[1]))
return False
except Exception as e:
print(e)
print('%s:%s 错误' %(ip[0],ip[1]))
return False
有些教程只是拿到200的http状态码就认为成功了,这是不对的。因为代理ip访问不成功,就会默认使用你自己的ip。用我自己的ip访问当然能成功了。
最后拿到的ip在使用前我们还需要对其进行检测,因为你不知道什么时候它就不可用了。所以平时多储存一些代理ip,免得要用的时候没得用。
这篇文章的代码参考了https://blog.csdn.net/XRRRICK/article/details/78650764,我稍微做了一些修改。