python requests更换代理适用于IP频率限制

本文介绍了一种通过更换代理IP来绕过网站IP限制的方法,详细解释了如何从互联网获取大量代理IP并将其应用于Python脚本中,实现自动化且高效地执行点赞等任务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

有些网址具有IP限制,比如同一个IP一天只能点赞一次。

解决方法就是更换代理IP。

从哪里获得成千上万的IP呢? 百度“http代理” 可获得一大堆网站。

比如某代理网站,1天6元,可以无限提取。

把提取的IP,保存到txt文件中。

 写一个方法,读取文件,存入数组中

def getProxysFromFile():
    with open("proxy.txt", "r") as f:
        l = f.readlines()
    return l

比如执行某任务,传入单个代理IP+PORT

def run(proxy):

    try:
        print("proxy:{}".format(proxy))
        s=requests.Session()
        proxies={
        "http": "http://{}".format(proxy.strip()), "https":"https://{}".format(proxy.strip())
        }
        header={
            "Host":"www.xxx.com",
            "Referer":"http://www.xxx.com/xxx.html?199",
            "User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36"

        }
        ret=s.get(url="http://www.xxx.com/data/dz?uid=199&ztype=1",headers=header,proxies=proxies,timeout=4)
        rc=ret.content.decode("utf-8")
        print(rc)
        if "成功" in rc:
            global count
            count+=1
            print(count)
    except:
        pass

接下来就是调度,简单写了个调度,比如每隔5秒钟,启动100个线程去执行。(这里为了简单,在上面的run中设置了超时时间为4秒,所以能保证不会导致启动的线程太多未完成卡死)

if __name__ == '__main__':
    count=1
    l=getProxysFromFile()
    while True:
        for i in range(100):
            try:
                t=threading.Thread(target=run,args=(l.pop(),))
                t.start()
            except:
                pass
        time.sleep(5)

效果如下,速度还是很快的。

 

评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值