很多次遇到python 3下的文件编码,解码问题,我这里的平台是mac,下面吐血搞一波。。
1. ASCII编码:
字符串是一种数据类型,但是,字符串比较特殊的是还有一个编码问题。因为计算机只能处理数字,如果要处理文本,就必须先把文本转换为数字才能处理。最早的计算机在设计时采用8个比特(bit)作为一个字节(byte),所以,一个字节能表示的最大的整数就是255(二进制11111111=十进制255),如果要表示更大的整数,就必须用更多的字节。比如两个字节可以表示的最大整数是65535,4个字节可以表示的最大整数是4294967295。
由于计算机是美国人发明的,因此,最早只有127个字母被编码到计算机里,也就是大小写英文字母、数字和一些符号,这个编码表被称为ASCII编码,比如大写字母A的编码是65,小写字母z的编码是122。
2. Unicode编码
Unicode把所有语言都统一到一套编码里,这样就不会再有乱码问题了。
Unicode标准也在不断发展,但最常用的是用两个字节表示一个字符(如果要用到非常偏僻的字符,就需要4个字节)。现代操作系统和大多数编程语言都直接支持Unicode。
ASCII编码和Unicode编码的区别:ASCII编码是1个字节,而Unicode编码通常是2个字节。
3. UTF-8编码
新的问题又出现了:如果统一成Unicode编码,乱码问题从此消失了。但是,如果你写的文本基本上全部是英文的话,用Unicode编码比ASCII编码需要多一倍的存储空间,在存储和传输上就十分不划算。
所以,又出现了把Unicode编码转化为“可变长编码”的UTF-8编码。UTF-8编码把一个Unicode字符根据不同的数字大小编码成1-6个字节,常用的英文字母被编码成1个字节,汉字通常是3个字节,只有很生僻的字符才会被编码成4-6个字节。如果你要传输的文本包含大量英文字符,用UTF-8编码就能节省空间:
4. 文件传输
在计算机内存中,统一使用Unicode编码
,当需要保存到硬盘或者需要传输的时候,就转换为UTF-8编码。
用记事本编辑的时候,从文件读取的UTF-8字符被转换为Unicode字符到内存里,编辑完成后,保存的时候再把Unicode转换为UTF-8保存到文件:
浏览网页的时候,服务器会把动态生成的Unicode内容转换为UTF-8再传输到浏览器:
所以你看到很多网页的源码上会有类似的信息,表示该网页正是用的UTF-8编码。
5. python 3 字符串类型和 bytes 类型
字符串
在最新的Python 3版本中,字符串是以Unicode编码的,也就是说,Python的字符串支持多语言。
In [181]: print('包含中文的str')
包含中文的str
bytes
由于Python的字符串类型是str,在内存中以Unicode表示,一个字符对应若干个字节。如果要在网络上传输,或者保存到磁盘上,就需要把str变为以字节为单位的bytes。
Python对bytes类型的数据用带b前缀的单引号或双引号表示:x = b'ABC'
要注意区分’ABC’和b’ABC’,前者是str,后者虽然内容显示得和前者一样,但bytes的每个字符都只占用一个字节。
(1)以Unicode表示的str通过encode()方法可以编码为指定的bytes。例如:
In [182]: 'ABC'.encode('ascii')
Out[182]: b'ABC'
In [183]: '中文'.encode('utf-8')
Out[183]: b'\xe4\xb8\xad\xe6\x96\x87'
In [184]: '中文ABC'.encode('utf-8')
Out[184]: b'\xe4\xb8\xad\xe6\x96\x87ABC'
In [185]: '中文'.encode('ascii')
Traceback (most recent call last):
File "<ipython-input-185-76f41cd8dafa>", line 1, in <module>
'中文'.encode('ascii')
UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)
纯英文的str可以用ASCII编码为bytes,内容是一样的,含有中文的str可以用UTF-8编码为bytes。含有中文的str无法用ASCII编码,因为中文编码的范围超过了ASCII编码的范围,Python会报错。
(2)如果我们从网络或磁盘上读取了字节流,那么读到的数据就是bytes。要把bytes变为str,就需要用decode()方法:
In [193]: b'ABC'.decode('ascii')
Out[193]: 'ABC'
In [194]: b'\xe4\xb8\xad\xe6\x96\x87'.decode('utf-8')
Out[194]: '中文'
(3)len()函数计算的是str的字符数,如果换成bytes,len()函数就计算字节数
>>> len(b'ABC')
3
>>> len(b'\xe4\xb8\xad\xe6\x96\x87')
6
>>> len('中文'.encode('utf-8'))
6
1个中文字符经过UTF-8编码后通常会占用3个字节,而1个英文字符只占用1个字节。
在操作字符串时,我们经常遇到str和bytes的互相转换。为了避免乱码问题,应当始终坚持使用UTF-8编码对str和bytes进行转换。
Python源代码也是一个文本文件,所以,当你的源代码中包含中文的时候,在保存源代码时,就需要务必指定保存为UTF-8编码。当Python解释器读取源代码时,为了让它按UTF-8编码读取,我们通常在文件开头写上这两行
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
第二行注释是为了告诉Python解释器,按照UTF-8编码读取源代码,否则,你在源代码中写的中文输出可能会有乱码。
4. 修改文件夹下的所有文本的编码
(1)Python3 中,在字符引号前加‘b’,明确表示这是一个 bytes 类型的对象,实际上它就是一组二进制字节序列组成的数据,bytes 类型可以是 ASCII范围内的字符和其它十六进制形式的字符数据,但不能用中文等非ASCII字符表示。
In [195]: b'a'
Out[195]: b'a'
In [196]: b'\xe7\xa6\x85'
Out[196]: b'\xe7\xa6\x85'
In [197]: b'中文'
File "<ipython-input-197-241a368e5c3e>", line 1
b'中文'
^
SyntaxError: bytes can only contain ASCII literal characters.
(2)str 与 bytes 之间的转换可以用 encode 和从decode 方法:
encode 负责字符到字节的编码转换。默认使用 UTF-8 编码准换。
In [198]: s = "Python之禅"
In [199]: s.encode()
Out[199]: b'Python\xe4\xb9\x8b\xe7\xa6\x85'
In [200]: s.encode("gbk")
Out[200]: b'Python\xd6\xae\xec\xf8'
decode 负责字节到字符的解码转换,通用使用 UTF-8 编码格式进行转换。
In [201]: b'Python\xe4\xb9\x8b\xe7\xa6\x85'.decode()
Out[201]: 'Python之禅'
In [202]: b'Python\xd6\xae\xec\xf8'.decode("gbk")
Out[202]: 'Python之禅'
下面是一个修改一个文件夹下的所有文本问价为utf-8的编码格式的例子:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Wed Oct 31 09:42:29 2018
@author: lilong
"""
import chardet
import os
class Unicode(object):
def __init__(self):
self.file_path='/Users/lilong/Desktop/coding_test/'
self.flag=0
def readFile(self,file_path):
with open(file_path, 'rb') as f: # 这里读文件判断编码时必须是‘rb’的格式
filecontent = f.read()
return filecontent
def converCode(self,filepath):
file_con = self.readFile(filepath)
result=chardet.detect(file_con) # 判断文件编码
print('result:',result)
if self.flag==0:
if result['encoding'] == 'GB2312': # GBK是GB2312的扩展
unicode_raw = file_con.decode('GB2312') # unicode_raw是字节流
unicode_done= unicode_raw.encode('utf-8') # unicode_done是字节流
#print(str(unicode_done))
with open(filepath, 'wb') as f: # 这里写文件时必须时‘wb’的格式
f.write(unicode_done)
else:
pass
def listDirFile(self,file_path):
list_ = os.listdir(file_path)
for ll in list_:
filepath = os.path.join(file_path, ll)
if os.path.isdir(filepath):
self.listDirFile(filepath)
else:
print('ll:',ll)
self.converCode(filepath)
def check(self):
self.flag=1
self.listDirFile(self.file_path)
def start(self):
self.listDirFile(self.file_path)
self.check()
# 实例化
tt=Unicode()
tt.start()
运行:
ll: .DS_Store
result: {'encoding': 'Windows-1252', 'confidence': 0.73, 'language': ''}
ll: 2.txt
result: {'encoding': 'utf-8', 'confidence': 0.99, 'language': ''}
ll: 1.txt
result: {'encoding': 'utf-8', 'confidence': 0.99, 'language': ''}
ll: .DS_Store
result: {'encoding': 'Windows-1252', 'confidence': 0.73, 'language': ''}
ll: 2.txt
result: {'encoding': 'utf-8', 'confidence': 0.99, 'language': ''}
ll: 1.txt
result: {'encoding': 'utf-8', 'confidence': 0.99, 'language': ''}
.DS_Store文件是我的mac系统下自动生成的,在这里不影响说明问题。