python爬虫入门(一)

本文介绍了一种使用Python和urllib2模块从指定网址下载所有图片的方法。通过编写简单脚本,作者实现了抓取并保存网页内容的功能。

今天有个朋友问我,你能不能帮我写个能下载一个网页上所有图片的脚本呀?我一想,刚好最近在学python,学到了URL这一块,就尝试着写了几个简单的脚本练了练手。其实自己也只是试了试 urllib2 这个模块确实是很强大的功能,简单的贴几行今天写的小代码(认真脸# 。#)

import urllib2,sys
response = urllib2.urlopen('http://www.baidu.com/')
html = response.read()
fp = open("/home/ubuntu/python/file/baidu.txt","w")
fp.write(html)
fp.close()
print html

这里直接将百度首页的所有代码保存下来,存到 *baidu.txt,同时打印www.baidu.com HTML 内容。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值