用python3.x爬虫时链接中出现中文使得出现UnicodeEncodeError的解决

本文介绍了解决Python3.6版本中处理含有中文字符URL的问题。通过使用urllib.parse.quote方法转换非ASCII码字符,成功实现了网页的正确打开。

小白博主之前学习一直用python2.7,由于世风日下,最近换成了3.6版本,但是刚入手3.6就发现有好多问题。
比如链接中出现中文字符就会有如下错误:

UnicodeEncodeError: ‘ascii’ codec can’t encode characters in position 33-34: ordinal not in range(128)

于是便从google、百度等各大浏览器寻找解决方案,大部分都是针对于2.7版本,比如reload(sys),但是实际上3.x版本中的默认编码方式都是utf-8,因此,终于功夫不负有心人,经过无数次失败后,找到如下解决方案:

import urllib
from urllib.request import urlopen
print (urllib.parse.quote("此处填写非ASCII码字符"))
#将结果复制,粘贴到原链接处,进行urlopen即可
html=urlopen("http://zh.wikipedia.org/wiki/%E6%9C%B4%E6%A0%91_(%E6%AD%8C%E6%89%8B)")

终于迈出第一步!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值