Python使用urllib进行http请求无限等待问题

本文讨论了一个在使用Python编写爬虫时遇到的问题,即多线程环境下urllib2库中的urlopen函数未正确处理超时参数导致线程异常消失的现象。通过详细解释urlopen函数的用法和提供解决方案,帮助开发者避免此类问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近在改一个python写的爬虫代码,多线程并行爬取,发现程序的线程会莫名其妙的消失掉也不抛异常,于是仔细研读了代码,确定所有的模块都return后,问题仍然得不到解决,最后通过调试发现消失掉的线程会卡在如下语句:

response = urllib2.urlopen(req)

百思不得其解,察看官方文档后才知道原来urllib2中的urlopen还有另外两个可选参数,定义如下:

urllib2.urlopen(url[, data][, timeout]),细节请看http://docs.python.org/2/library/urllib2.html

关键是第三个timeout参数,如果没有设置则线程一旦碰见网络情况糟糕,则会出现无限等待的情况,因而导致线程“消失”。

作如下修改:

response = urllib2.urlopen(req,None,10)

10s超时后,抛出异常,线程继续。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值