今天有个朋友问我,你能不能帮我写个能下载一个网页上所有图片的脚本呀?我一想,刚好最近在学python,学到了URL这一块,就尝试着写了几个简单的脚本练了练手。其实自己也只是试了试 urllib2 这个模块确实是很强大的功能,简单的贴几行今天写的小代码(认真脸# 。#)
import urllib2,sys
response = urllib2.urlopen('http://www.baidu.com/')
html = response.read()
fp = open("/home/ubuntu/python/file/baidu.txt","w")
fp.write(html)
fp.close()
print html
这里直接将百度首页的所有代码保存下来,存到 *baidu.txt,同时打印www.baidu.com HTML 内容。