# -*-coding:gbk-*-
'''
urllib2下载网页的三种方法
'''
import urllib2,cookielib
url='http://www.baidu.com'
#直接请求
print u'第一种方法_直接请求'
response1=urllib2.urlopen(url)
print response1.getcode()
print len(response1.read())
#添加data、httpheader
print u'第二种方法_添加data、httpheader'
#创建Request对象
request=urllib2.Request(url)
#request.add_data('a','1')
#添加header,伪装成MozillaBrowser
request.add_header('user-agent','Mozilla/5.0')
#发送请求,获得结果
response2=urllib2.urlopen(request)
print response2.getcode()
print len(response2.read())
#添加特殊场景处理器
print u'第三种方法_添加特殊场景处理器_以cookie为例'
#创建cookie容器
cj=cookielib.CookieJar()
#创建一个opener
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
#给urllib2安装opener
urllib2.install_opener(opener)
#使用带cookie的urllib2访问网页
response3=urllib2.urlopen(url)
print response3.getcode()
print len(response3.read())
urllib2下载网页的三种方法_Python爬虫
最新推荐文章于 2022-07-20 00:23:05 发布
