Python处理连接超时方法

本文分享了一个新手在爬虫中遇到的常见问题——http连接超时,作者提供了使用循环套用的简单处理方法,并寻求高级解决方案。讨论了如何优化和避免此类问题,适合刚入门的开发者参考。

作为一个新手,在做爬虫的时候,经常遇到http连接超时,这个问题很蛋疼。大概查了一下,暂时还没发现有什么好办法,所以自己写了一个简单的处理连接超时的方法。用的是循环套用。
各位大神,如果有什么好招数的话,指点一下。

-- coding: UTF-8 --

import urllib.request
url = ‘stackoverflow.com’

c = 1
def getcontect©:
try:
#req2 = urllib.request.Request(“http://” + url)
#resp2 = urllib.request.urlopen(req2, timeout=0.1)
sendrequest()
print(“Normal”)
except:
print(“exception”)
print©
c = c+1

    print("c before return:", c)
    if c == 5:
        return -1
    else:
        getcontect(c)

getcontect(1)

运行结果
reqtest.py
exception
1
c before return: 2
exception
2
c before return: 3
exception
3
c before return: 4
exception
4
c before return: 5

进程已结束,退出代码为 0

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值