浅谈Python爬虫代理设置

本人使用的是Python3,导入的是requests库

使用的句式如下:
response = requests.get(url,headers,proxies)

参数url就是你想要爬取的网址,没什么可说的;

参数headers就是将你的爬虫伪装一下,比如谷歌浏览器,而不是一串代码,格式如下:
headers = {‘user-agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36’}

参数proxies就是爬虫所使用的ip代理,同一个ip在短时间内高频率的访问某个网站,往往会被服务器封掉ip,这时有两个办法可以解决被封ip的问题,一是降低频率,当然这也会降低爬虫的工作效率,二就是使用代理,也是本文的核心,格式如下:
proxies = {‘proxy’:’https://110.216.18.44:80‘}
西刺代理

最终的代码为:

import requests

url = 'http://www.xicidaili.com/'
headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'}
proxies = {'proxy':'https://110.216.18.44:80'}
response = requests.get(url,headers=headers,proxies=proxies)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值