通俗地说逻辑回归:如何防止爬虫时IP被封!算法(一)

本文分享了两种有效防止爬虫IP被封的方法:一是通过降低访问速度,利用time模块的sleep函数控制请求间隔;二是使用代理IP,特别是动态转发代理,如亿牛云,通过Selenium配置代理插件实现高效抓取。

今天给大家分享的是如何在爬取数据的时候防止IP被封,今天给大家分享两种方法,希望大家可以认真学习,再也不用担心被封IP啦。

通俗地说逻辑回归:如何防止爬虫时IP被封!算法(一)
第一种:

降低访问速度,我们可以使用time模块中的sleep,使程序每运行一次后就睡眠1s,这样的话就可以大大的减少ip被封的几率

第二种:

为了提高效率,我们可以使用代理ip来解决,ip是亿牛云的动态转发代理,以下是代理配置过程的示例

Selenium

from selenium import webdriver

 import string

 import zipfile

 

 # 代理服务器

 proxyHost = "t.16yun.cn"

 proxyPort = "31111"

 

 # 代理隧道验证信息

 proxyUser = "username"

 proxyPass = "password"

 

 def create_proxy_auth_extension(proxy_host, proxy_port,

 proxy_username, proxy_password,

 scheme='http', plugin_path=None):

 if plugin_path is None:

 plugin_path = r'C:/{}_{}@t.16yun.zip'.format(proxy_username, proxy_password)

 

 manifest_json = """ { "version": "1.0.0", "manifest_version": 2, "name": "16YUN Proxy", "permissions": [ "proxy", "tabs", "unlimitedStorage", "storage", "", "webRequest", "webRequestBlocking" ], "background": { "scripts": ["background.js"] }, "minimum_chrome_version":"22.0.0" } """

 

 background_js = string.Template(

 """ var config = { mode: "fixed_servers", rules: { singleProxy: { scheme: "${scheme}", host: "${host}", port: parseInt(${port}) }, bypassList: ["foobar.com"] } };

 chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});

 function callbackFn(details) { return { authCredentials: { username: "${username}", password: "${password}" } }; }

 chrome.webRequest.onAuthRequired.addListener( callbackFn, {urls: [""]}, ['blocking'] ); """

 ).substitute(

 host=proxy_host,

 port=proxy_port,

 username=proxy_username,

 password=proxy_password,

 scheme=scheme,

 )

 

 with zipfile.ZipFile(plugin_path, 'w') as zp:

 zp.writestr("manifest.json", manifest_json)

 zp.writestr("background.js", background_js)

 

 return plugin_path

 

 proxy_auth_plugin_path = create_proxy_auth_extension(

 proxy_host=proxyHost,

 proxy_port=proxyPort,

 proxy_username=proxyUser,

 proxy_password=proxyPass)

 

 option = webdriver.ChromeOptions()

 

 option.add_argument("--start-maximized")

 # 如报错 chrome-extensions

 # option.add_argument("--disable-extensions")

 option.add_extension(proxy_auth_plugin_path)

 

 driver = webdriver.Chrome(chrome_options=option)


 driver.get("http://httpbin.org/ip")

好了,今天关于python学习的分享就到这里,上边的那段代码可以直接使用,但是里边的代理应该已经过期,大家在使用的时候可能需要联系代理商开通服务,最后呢希望大家能够收藏起来,要记得做笔记哦。好记性不如烂笔头。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值