python的基础爬虫

	以爬取百度页面为例子,输出页面信息以及保存文件

#!/user/bin/env python
#coding=utf-8

import urllib2

def linkBaidu():
    url = 'http://www.baidu.com'
    try:
        response = urllib2.urlopen(url,timeout=3)
        http = response.read()
        print http
    except urllib2.URLError:
        print (u"网络地址错误")
        exit()
    with open('./baidu.txt','w')as fp:
        fp.write(http)

    print ("获取url信息 response.geturl():%s" %response.geturl())
    print ("获取返回代码 response.getcode():%s" % response.getcode())
    print ("获取返回信息 response.info():%s" % response.info())
    print ("获取的信息以及保存到当前目录的baidu.txt文件下,请自行查看")

if __name__ == '__main__':
    linkBaidu()


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值