在本文中,以'哈'來解釋做示例解釋全部的問題,「哈」的各類編碼以下: python
1. UNICODE (UTF8-16),C854; 數組
2. UTF-8,E59388; 編碼
3. GBK,B9FE。 spa
一直以來,python中的中文編碼就是一個極爲頭大的問題,常常拋出編碼轉換的異常,python中的str和unicode究竟是一個什麼東西呢? 操作系統
在python中提到unicode,通常指的是unicode對象,例如'哈哈'的unicode對象爲 .net
u'/u54c8/u54c8' code
而str,是一個字節數組,這個字節數組表示的是對unicode對象編碼(能夠是utf-八、gbk、cp93六、GB2312)後的存儲的格式。這裏它僅僅是一個字節流,沒有其它的含義,若是你想使這個字節流顯示的內容有意義,就必須用正確的編碼格式,解碼顯示。 對象
例如: blog
對於unicode對象哈哈進行編碼,編碼成 一個utf-8編碼的str-s_utf8,s_utf8就是是一個字節數組,存放的就是'/xe5/x93/x88/xe5/x93/x88',可是這 僅僅是一個字節數組,若是你想將它經過print語句輸出成哈哈,那你就失望了,爲何呢? utf-8
由於print語句它的實現是將要輸出的內容 傳送了操做系統,操做系統會根據系統的編碼對輸入的字節流進行編碼,這就解釋了爲何utf-8格式的字符串「哈哈」,輸出的是「鍝堝搱」,由於 '/xe5/x93/x88/xe5/x93/x88'用GB2312去解釋,其顯示的出來就是「鍝堝搱」。這裏再強調一下,str記錄的是字節數組,只 是某種編碼的存儲格式,至於輸出到文件或是打印出來是什麼格式,徹底取決於其解碼的編碼將它解碼成什麼樣子。
這裏再對print進行一點補充說明:當將一個unicode對象傳給print時,在內部會將該unicode對象進行一次轉換,轉換成本地的默認編碼(這僅是我的猜想)
str和unicode對象的轉換,經過encode和decode實現,具體使用以下:
將GBK'哈哈'轉換成unicode,而後再轉換成UTF8
如上圖的演示代碼所示:
當把s(gbk字符串)直接編碼成utf-8的時候,將拋出異常,可是經過調用以下代碼:
import sys
reload(sys)
sys.setdefaultencoding('gbk')
後就能夠轉換成功,爲何呢?在python中str和unicode在編碼和解碼過程當中,若是將一個str直接編碼成另外一種編碼,會先把str解碼成unicode,採用的編碼爲默認編碼,通常默認編碼是anscii,因此在上面示例代碼中第一次轉換的時候會出錯,當設定當前默認編碼爲'gbk'後,就不會出錯了。
至於reload(sys)是由於Python2.5 初始化後會刪除 sys.setdefaultencoding 這個方法,咱們須要從新載入。
創建一個文件test.txt,文件格式用ANSI,內容爲:
abc中文
用python來讀取
# coding=gbk
print open("Test.txt").read()
結果:abc中文
把文件格式改爲UTF-8:
結果:abc涓枃
顯然,這裏須要解碼:
# coding=gbk
import codecs
print open("Test.txt").read().decode("utf-8")
結果:abc中文
上面的test.txt我是用Editplus來編輯的,但當我用Windows自帶的記事本編輯並存成UTF-8格式時,
運行時報錯:
Traceback (most recent call last):
File "ChineseTest.py", line 3, in
print open("Test.txt").read().decode("utf-8")
UnicodeEncodeError: 'gbk' codec can't encode character u'/ufeff' in position 0: illegal multibyte sequence
原來,某些軟件,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字符(0xEF 0xBB 0xBF,即BOM)。
所以咱們在讀取時須要本身去掉這些字符,python中的codecs module定義了這個常量:
# coding=gbk
import codecs
data = open("Test.txt").read()
if data[:3] == codecs.BOM_UTF8:
data = data[3:]
print data.decode("utf-8")
結果:abc中文
5、文件的編碼格式和編碼聲明的做用
源文件的編碼格式對字符串的聲明有什麼做用呢?這個問題困擾一直困擾了我很久,如今終於有點眉目了,文件的編碼格式決定了在該源文件中聲明的字符串的編碼格式,例如:
str = '哈哈'
print repr(str)
a.若是文件格式爲utf-8,則str的值爲:'/xe5/x93/x88/xe5/x93/x88'(哈哈的utf-8編碼)
b.若是文件格式爲gbk,則str的值爲:'/xb9/xfe/xb9/xfe'(哈哈的gbk編碼)
在第一節已經說過,python中的字符串, 只是一個字節數組,因此當把a狀況的str輸出到gbk編碼的控制檯時,就將顯示爲亂碼:鍝堝搱;而當把b狀況下的str輸出utf-8編碼的控制檯時, 也將顯示亂碼的問題,是什麼也沒有,也許'/xb9/xfe/xb9/xfe'用utf-8解碼顯示,就是空白吧。>_<
說完文件格式,如今來談談編碼聲明的做用吧,每一個文件在最上面的地方,都會用# coding=gbk 相似的語句聲明一下編碼,可是這個聲明到底有什麼用呢?到止前爲止,我以爲它的做用也就是三個:
ss = u'哈哈'
print repr(ss)
print 'ss:%s' % ss
將這個些代碼保存成一個utf-8文本,運行,你認爲會輸出什麼呢?你們第一感受確定輸出的確定是:
u'/u54c8/u54c8'
ss:哈哈
可是實際上輸出是:
u'/u935d/u581d/u6431'
ss:鍝堝搱
爲何會這樣,這時候,就是編碼聲明在做怪了,在運行ss = u'哈哈'的時候,整個過程能夠分爲如下幾步:
1) 獲取'哈哈'的編碼:由文件編碼格式肯定,爲'/xe5/x93/x88/xe5/x93/x88'(哈哈的utf-8編碼形式)
2) 轉成 unicode編碼的時候,在這個轉換的過程當中,對於'/xe5/x93/x88/xe5/x93/x88'的解碼,不是用utf-8解碼,而是用聲明編 碼處指定的編碼GBK,將'/xe5/x93/x88/xe5/x93/x88'按GBK解碼,獲得就是''鍝堝搱'',這三個字的unicode編碼就 是u'/u935d/u581d/u6431',至止能夠解釋爲何print repr(ss)輸出的是u'/u935d/u581d/u6431' 了。
好了,這裏有點繞,咱們來分析下一個示例:
#-*- coding:utf-8 -*-
ss = u'哈哈'
print repr(ss)
print 'ss:%s' % ss
將這個示例此次保存成GBK編碼形式,運行結果,居然是:
UnicodeDecodeError: 'utf8' codec can't decode byte 0xb9 in position 0: unexpected code byte
這裏爲何會有utf8解碼錯誤呢?想一想上個 示例也明白了,轉換第一步,由於文件編碼是GBK,獲得的是'哈哈'編碼是GBK的編碼'/xb9/xfe/xb9/xfe',當進行第二步,轉換成 unicode的時候,會用UTF8對'/xb9/xfe/xb9/xfe'進行解碼,而你們查utf-8的編碼表會發現,utf8編碼表(關於UTF- 8解釋可參見字符編碼筆記:ASCII、UTF-八、UNICODE)中根本不存在,因此會報上述錯誤。