您好,登錄后才能下訂單哦!
如何分析Python unicode編碼問題,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。
這個問題在python3.0里已經解決了。
這有篇很好的文章,可以明白這個問題:
為什么會報錯“UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)”?本文就來研究一下這個問題。
字符串在Python內部的表示是unicode編碼,因此,在做編碼轉換時,通常需要以unicode作為中間編碼,即先將其他編碼的字符串解碼(decode)成unicode,再從unicode編碼(encode)成另一種編碼。
decode的作用是將其他編碼的字符串轉換成unicode編碼,如str1.decode('gb2312'),表示將gb2312編碼的字符串str1轉換成unicode編碼。
encode的作用是將unicode編碼轉換成其他編碼的字符串,如str2.encode('gb2312'),表示將unicode編碼的字符串str2轉換成gb2312編碼。
因此,轉碼的時候一定要先搞明白,字符串str是什么編碼,然后decode成unicode,然后再encode成其他編碼
代碼中字符串的默認編碼與代碼文件本身的編碼一致。
如:s='中文'
如果是在utf8的文件中,該字符串就是utf8編碼,如果是在gb2312的文件中,則其編碼為gb2312。這種情況下,要進行編碼轉換,都需 要先用decode方法將其轉換成unicode編碼,再使用encode方法將其轉換成其他編碼。通常,在沒有指定特定的編碼方式時,都是使用的系統默 認編碼創建的代碼文件。
如果字符串是這樣定義:s=u'中文'
則該字符串的編碼就被指定為unicode了,即python的內部編碼,而與代碼文件本身的編碼無關。因此,對于這種情況做編碼轉換,只需要直接使用encode方法將其轉換成指定編碼即可。
如果一個字符串已經是unicode了,再進行解碼則將出錯,因此通常要對其編碼方式是否為unicode進行判斷:
isinstance(s, unicode) #用來判斷是否為unicode
用非unicode編碼形式的str來encode會報錯
如何獲得系統的默認編碼?
#!/usr/bin/env python
#coding=utf-8
import sys
print sys.getdefaultencoding()
該段程序在英文WindowsXP上輸出為:ascii
在某些IDE中,字符串的輸出總是出現亂碼,甚至錯誤,其實是由于IDE的結果輸出控制臺自身不能顯示字符串的編碼,而不是程序本身的問題。
如在UliPad中運行如下代碼:
s=u"中文"
print s
會提示:UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)。這是因為UliPad在英文WindowsXP上的控制臺信息輸出窗口是按照ascii編碼輸出的(英文系統的默認編碼是 ascii),而上面代碼中的字符串是Unicode編碼的,所以輸出時產生了錯誤。
將最后一句改為:print s.encode('gb2312')
則能正確輸出“中文”兩個字。
若最后一句改為:print s.encode('utf8')
則輸出:\xe4\xb8\xad\xe6\x96\x87,這是控制臺信息輸出窗口按照ascii編碼輸出utf8編碼的字符串的結果。
unicode(str,'gb2312')與str.decode('gb2312')是一樣的,都是將gb2312編碼的str轉為unicode編碼
使用str.__class__可以查看str的編碼形式
>>>>>
groups.google.com/group/python-cn/browse_thread/thread/be4e4e0d4c3272dd
-----
python是個容易出現編碼問題的語言。所以,我按照我的理解寫下下面這些文字。
=首先,要了解幾個概念。=
*字節:計算機數據的表示。8位二進制。可以表示無符號整數:0-255。下文,用“字節流”表示“字節”組成的串。
*字符:英文字符“abc”,或者中文字符“你我他”。字符本身不知道如何在計算機中保存。下文中,會避免使用“字符串”這個詞,而用“文本”來表
示“字符”組成的串。
*編碼(動詞):按照某種規則(這個規則稱為:編碼(名詞))將“文本”轉換為“字節流”。(在python中:unicode變成str)
*解碼(動詞):將“字節流”按照某種規則轉換成“文本”。(在python中:str變成unicode)
**實際上,任何東西在計算機中表示,都需要編碼。例如,視頻要編碼然后保存在文件中,播放的時候需要解碼才能觀看。
unicode:unicode定義了,一個“字符”和一個“數字”的對應,但是并沒有規定這個“數字”在計算機中怎么保存。(就像在C中,一個整數既
可以是int,也可以是short。unicode沒有規定用int還是用short來表示一個“字符”)
utf8:unicode實現。它使用unicode定義的“字符”“數字”映射,進而規定了,如何在計算機中保存這個數字。其它的utf16等都是
unicode實現。
gbk:類似utf8這樣的“編碼”。但是它沒有使用unicode定義的“字符”“數字”映射,而是使用了另一套的映射方法。而且,它還定義了如何在
計算機中保存。
=python中的encode,decode方法=
首先,要知道encode是 unicode轉換成str。decode是str轉換成unicode。
下文中,u代表unicode類型的變量,s代表str類型的變量。
u.encode('...')基本上總是能成功的,只要你填寫了正確的編碼。就像任何文件都可以壓縮成zip文件。
s.decode('...')經常是會出錯的,因為str是什么“編碼”取決于上下文,當你解碼的時候需要確保s是用什么編碼的。就像,打開zip文
件的時候,你要確保它確實是zip文件,而不僅僅是偽造了擴展名的zip文件。
u.decode(),s.encode()不建議使用,s.encode相當于s.decode().encode()首先用默認編碼(一般是
ascii)轉換成unicode在進行encode。
=關于#coding=utf8=
當你在py文件的第一行中,寫了這句話,并確實按照這個編碼保存了文本的話,那么這句話有以下幾個功能。
1.使得詞法分析器能正常運作,對于注釋中的中文不報錯了。
2.對于u"中文"這樣literal string能知道兩個引號中的內容是utf8編碼的,然后能正確轉換成unicode
3."中文"對于這樣的literal string你會知道,這中間的內容是utf8編碼,然后就可以正確轉換成其它編碼或unicode了。
沒有寫完,先碼那么多字,以后再來補充,這里不是wiki,太麻煩了。
>>>>>
>>>>>
=Python編碼和Windows控制臺=
我發現,很多初學者出錯的地方都在print語句,這牽涉到控制臺的輸出。我不了解linux,所以只說控制臺的。
首先,Windows的控制臺確實是unicode(utf16_le編碼)的,或者更準確的說使用字符為單位輸出文本的。
但是,程序的執行是可以被重定向到文件的,而文件的單位是“字節”。
所以,對于C運行時的函數printf之類的,輸出必須有一個編碼,把文本轉換成字節。可能是為了兼容95,98,
沒有使用unicode的編碼,而是mbcs(不是gbk之類的)。
windows的mbcs,也就是ansi,它會在不同語言的windows中使用不同的編碼,在中文的windows中就是gb系列的編碼。
這造成了同一個文本,在不同語言的windows中是不兼容的。
現在我們知道了,如果你要在windows的控制臺中輸出文本,它的編碼一定要是“mbcs”。
對于python的unicode變量,使用print輸出的話,會使用sys.getfilesystemencoding()返回的編碼,把它變成str。
如果是一個utf8編碼str變量,那么就需要 print s.decode('utf8').encode('mbcs')
最后,對于str變量,file文件讀取的內容,urllib得到的網絡上的內容,都是以“字節”形式的。
它們如果確實是一段“文本”,比如你想print出來看看。那么你必須知道它們的編碼。然后decode成unicode。
如何知道它們的編碼:
1.事先約定。(比如這個文本文件就是你自己用utf8編碼保存的)
2.協議。(python文件第一行的#coding=utf8,html中的等)
2.猜。
>>>>>
> 這個非常好,但還不是很明白
> 將“文本”轉換為“字節流”。(在python中:unicode變成str)
"最后,對于str變量,file文件讀取的內容,urllib得到的網絡上的內容,都是以“字節”形式的。"
雖然文件或者網頁是文本的,但是在保存或者傳輸時已經被編碼成bytes了,所以用"rb"打開的file和從socket讀取的流是基于字節的.
"它們如果確實是一段“文本”,比如你想print出來看看。那么你必須知道它們的編碼。然后decode成unicode。"
這里的加引號的"文本",其實還是字節流(bytes),而不是真正的文本(unicode),只是說明我們知道他是可以解碼成文本的.
在解碼的時候,如果是基于約定的,那就可以直接從指定地方讀取如BOM或者python文件的指定coding或者網頁的meta,就可以正確解碼,
但是現在很多文件/網頁雖然指定了編碼,但是文件格式實際卻使用了其他的編碼(比如py文件指定了coding=utf8,但是你還是可以保存成ansi--記事本的默認編碼),這種情況下真實的編碼就需要去猜了
解碼了的文本只存在運行環境中,如果你需要打印/保存/輸出給數據庫/網絡傳遞,就又需要一次編碼過程,這個編碼與上面的編碼沒有關系,只是依賴于你的選擇,但是這個編碼也不是可以隨便選擇的,因為編碼后的bytes如果又需要傳遞給其他人/環境,那么如果你的編碼也不遵循約定,又給下一個人/環境造成了困擾,于是遞歸之~~~~
>>>>>
> 主要有一條非常容易誤解:
> 一般人會認為Unicode(廣義)統一了編碼,其實不然。Unicode不是唯一的編碼,而一大堆編碼的統稱。但是Windows下Unicode
> (狹義)一般特指UCS2,也就是UTF-16/LE
unicode作為字符集(ucs)是唯一的,編碼方案(utf)才是有很多種
>>>>>
將字符與字節的概念區分開來是很重要的。Java 一直就是這樣,Python也開始這么做了,Ruby 貌似還在混亂當中。
>>>>>
>>>>>
我也說兩句。我對編碼的研究相對比較深一些。因為工作中也經常遇到亂碼,于是在05年,對編碼專門做過研究,并在公司刊物上發過文章,最后形成了一個教材,每年在公司給新員工都講一遍。于是項目中遇到亂碼的問題就能很快的定位并解決了。
理論上,從一個字符到具體的編碼,會經過以下幾個概念。
字符集(Abstract character repertoire)
編碼字符集(Coded character set)
字符編碼方式(Character encoding form)
字符編碼方案(Character encoding scheme )
字符集:就算一堆抽象的字符,如所有中文。字符集的定義是抽象的,與計算機無關。
編碼字符集:是一個從整數集子集到字符集抽象元素的映射。即給抽象的字符編上數字。如gb2312中的定義的字符,每個字符都有個整數和它對應。一個整數只對應著一個字符。反過來,則不一定是。這里所說的映射關系,是數學意義上的映射關系。編碼字符集也是與計算機無關的。unicode字符集也在這一層。
字符編碼方式:這個開始與計算機有關了。編碼字符集的編碼點在計算機里的具體表現形式。通俗的說,意思就是怎么樣才能將字符所對應的整數的放進計算機內存,或文件、或網絡中。于是,不同人有不同的實現方式,所謂的萬碼奔騰,就是指這個。gb2312,utf-8,utf-16,utf-32等都在這一層。
字符編碼方案:這個更加與計算機密切相關。具體是與操作系統密切相關。主要是解決大小字節序的問題。對于UTF-16和UTF-32
編碼,Unicode都支持big-endian 和 little-endian兩種編碼方案。
一般來說,我們所說的編碼,都在第三層完成。具體到一個軟件系統中,則很復雜。
瀏覽器-apache-tomcat(包括tomcat內部的jsp編碼、編譯,文件讀取)-數據庫之間,只要存在數據交互,就有可能發生編碼不一致,如果在讀取數據時,沒有正確的decode和encode,出現亂碼就是家常便飯了。
看完上述內容,你們掌握如何分析Python unicode編碼問題的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。