本人使用的是Python3,导入的是requests库
使用的句式如下:
response = requests.get(url,headers,proxies)
参数url就是你想要爬取的网址,没什么可说的;
参数headers就是将你的爬虫伪装一下,比如谷歌浏览器,而不是一串代码,格式如下:
headers = {‘user-agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36’}
参数proxies就是爬虫所使用的ip代理,同一个ip在短时间内高频率的访问某个网站,往往会被服务器封掉ip,这时有两个办法可以解决被封ip的问题,一是降低频率,当然这也会降低爬虫的工作效率,二就是使用代理,也是本文的核心,格式如下:
proxies = {‘proxy’:’https://110.216.18.44:80‘}
最终的代码为:
import requests
url = 'http://www.xicidaili.com/'
headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'}
proxies = {'proxy':'https://110.216.18.44:80'}
response = requests.get(url,headers=headers,proxies=proxies)