这两天谢了一个小爬虫,很肾虚啊;
刚开始使用的是urllib2.urlopen(url).read() ,程序不大就会报错:urllib2.HTTPError: HTTP Error 500: Internal Server Error;
后来试了一下requests.get(url).content, 一次都没报错,擦啊,这算什么事。。。。
urllib2.urlopen(url).read()输出上 requests.get(url).content是一样的,但是性能与稳定性肯定是不同的,而且requests模块用于带账户密码网页的登陆也很方便。值得学习使用。
本文通过一个小爬虫案例比较了requests库与urllib2库在获取网页内容时的稳定性和易用性差异。作者发现使用requests.get(url).content方法相比urllib2.urlopen(url).read()更加稳定,且未出现HTTP 500错误。
2万+

被折叠的 条评论
为什么被折叠?



