python学习-Selenium爬虫之使用代理ip的方法

本文分享了两种有效防止爬虫IP被封的方法:一是通过降低访问速度,利用time模块的sleep函数控制请求间隔;二是使用代理IP,特别是动态转发代理,如亿牛云,通过Selenium和ChromeDriver配置代理,实现高效稳定的数据抓取。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

今天给大家分享的是如何在爬取数据的时候防止 IP被封,今天给大家分享两种方法,希望大家可以认真学习,再也不用担心被封IP啦。

第一种:

降低访问速度,我们可以使用 time模块中的sleep,使程序每运行一次后就睡眠1s,这样的话就可以大大的减少ip被封的几率

第二种:

为了提高效率,我们可以使用代理 ip来解决,ip是亿牛云的动态转发代理,以下是代理配置过程的示例

Selenium ¶
from selenium import webdriver

 import   string

 import   zipfile



 # 代理服务器

proxyHost = "t.16yun.cn"

proxyPort = "31111"



 # 代理隧道验证信息

proxyUser = "username"

proxyPass = "password"



 def   create_proxy_auth_extension (proxy_host, proxy_port,

                               proxy_username, proxy_password,

                               scheme= 'http' , plugin_path= None ):

     if  plugin_path is None :

        plugin_path = r 'C:/{}_{}@t.16yun.zip' .format(proxy_username, proxy_password)



    manifest_json = """        {            "version": "1.0.0",            "manifest_version": 2,            "name": "16YUN Proxy",            "permissions": [                "proxy",                "tabs",                "unlimitedStorage",                "storage",                "",                "webRequest",                "webRequestBlocking"            ],            "background": {                "scripts": ["background.js"]            },            "minimum_chrome_version":"22.0.0"        }        """



    background_js = string.Template(

         """            var config = {                mode: "fixed_servers",                rules: {                    singleProxy: {                        scheme: "${scheme}",                        host: "${host}",                        port: parseInt(${port})                    },                    bypassList: ["foobar.com"]                }              };

        chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});

        function callbackFn(details) {                return {                    authCredentials: {                        username: "${username}",                        password: "${password}"                    }                };            }

        chrome.webRequest.onAuthRequired.addListener(                callbackFn,                {urls: [""]},                ['blocking']            );            """

    ).substitute(

        host=proxy_host,

        port=proxy_port,

        username=proxy_username,

        password=proxy_password,

        scheme=scheme,

    )



     with  zipfile.ZipFile(plugin_path, 'w' ) as  zp:

        zp.writestr( "manifest.json" , manifest_json)

        zp.writestr( "background.js" , background_js)



     return  plugin_path



proxy_auth_plugin_path = create_proxy_auth_extension(

    proxy_host=proxyHost,

    proxy_port=proxyPort,

    proxy_username=proxyUser,

    proxy_password=proxyPass)



option = webdriver.ChromeOptions()



option.add_argument( "--start-maximized" )

 # 如报错 chrome-extensions

 # option.add_argument("--disable-extensions")

option.add_extension(proxy_auth_plugin_path)



driver = webdriver.Chrome(chrome_options=option)



driver.get( "http://httpbin.org/ip" )

好 了,今天关于 python学习的分享就到这里,上边的那段代码可以直接使用,但是里边的代理应该已经过期,大家在使用的时候可能需要联系代理商开通服务,最后呢希望大家能够收藏起来,要记得做笔记哦。好记性不如烂笔头。

Python使用Selenium进行网页爬取时,为了隐藏真实IP或者提高请求速度,可以利用第三方库如`proxybroker`、`selenium.webdriver.Proxy`或直接配置浏览器设置来支持代理IP。以下是基本步骤: 1. **安装依赖库**: 如果还未安装,首先需要安装`proxybroker`库(如果使用的是`webdriver_manager`管理Selenium驱动,它通常包含了对`proxybroker`的支持): ```bash pip install proxybroker selenium webdriver_manager ``` 2. **获取代理列表**: 使用`proxybroker`获取可用的代理IP,例如: ```python from proxybroker import Broker broker = Broker(proxies=['http://your_proxy_list']) proxy = broker.random ``` 将`'your_proxy_list'`替换为你实际的代理IP列表。 3. **创建WebDriver实例并设置代理**: ```python from selenium import webdriver from webdriver_manager.chrome import ChromeDriverManager # 创建Chrome浏览器实例,并指定代理 options = webdriver.ChromeOptions() options.add_argument('--proxy-server=%s' % proxy) driver = webdriver.Chrome(ChromeDriverManager().install(), options=options) ``` 如果你想通过`webdriver_manager`自动处理代理设置,只需要传递`options`给`webdriver.Chrome()`即可。 4. **开始爬取**: 现在你可以像平时一样使用`driver`去访问网站了。 5. **注意**: - 需定期检查代理的有效性,因为它们可能会过期或失效。 - 某些网站可能有反爬策略,频繁更换代理可能会导致被封禁。 - 使用代理IP时遵守法律法规和网站服务条款。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值