\x 是ascii码
\u 是unicode(utf8)
gbk?
ascii和unicode转换中
str(tempWord)和unicode(tempWord, "utf8")互为逆运算
s.decode('utf-8')可以进行解码,对应的还有encode命令
有的时候转码了也不匹配可以把用于匹配的字符加入list中再打印list看实际编码的区别,最常出现的情况是有的字符串多了个'\n'等,不易察觉。
还有就是下面的命令
import sys reload(sys) sys.setdefaultencoding( "utf-8" )
以及py文件头加上
# -*- coding:utf-8 -*-
能解决绝大多数编码类型引起的问题
爬虫使用中url解码unquote;url编码quote
编码问题其实应该算是python2.7软件自己的问题了。。。python3.x貌似已经修复了。