网络爬虫经常会碰到各种异常,原因多种多样,当发现错误时,再来修改代码,再重新运行,需要时间,这不利于爬虫的效率。我们可以通过try来避免异常。
代码如下:
URL = 'http://www.bj.xiaozhu.com/'
res = requests.get(url=URL)
try:
print(res.text)
except ConnectionError:
print('连接失败')
通过try 和except,如果请求成功了就会打印网页源代码,如果请求出现异常就会打印‘连接失败’,这样做的好处就是无论是否出现异常,都不会影响后面代码的执行。