python访问抓取网页常用命令(保存图片到本地、模拟POST、GET、中文编码问题)...

本文介绍了使用Python进行网页抓取的基本方法,包括GET和POST请求的发送、网页内容的读取及保存等,并讨论了如何处理中文编码问题。

简单的抓取网页:

import urllib.request   
url
="http://google.cn/"
response
=urllib.request.urlopen(url) #返回文件对象
page=response.read()

直接将URL保存为本地文件:

import urllib.request  
url
="http://www.xxxx.com/1.jpg"
urllib.request.urlretrieve(url,r
"d:\temp\1.jpg")

POST方式:

复制代码
import urllib.parse  
import urllib.request

url
="http://liuxin-blog.appspot.com/messageboard/add"

values
={"content":"命令行发出网页请求测试"}
data
=urllib.parse.urlencode(values)

#创建请求对象
req=urllib.request.Request(url,data)
#获得服务器返回的数据
response=urllib.request.urlopen(req)
#处理数据
page=response.read()
复制代码

GET方式:

复制代码
import urllib.parse  
import urllib.request

url
="http://www.google.cn/webhp"

values
={"rls":"ig"}
data
=urllib.parse.urlencode(values)

theurl
=url+"?"+data
#创建请求对象
req=urllib.request.Request(theurl)
#获得服务器返回的数据
response=urllib.request.urlopen(req)
#处理数据
page=response.read()
复制代码

有2个常用的方法,geturl(),info()

geturl()的设置是为了辨别是否有服务器端的网址重定向,而info()则包含了一系列的信息。

中文问题的处理,会用到 encode()编码 dencode()解码:




本文转自黄聪博客园博客,原文链接:http://www.cnblogs.com/huangcong/archive/2011/09/03/2165565.html,如需转载请自行联系原作者

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值