'ascii' codec can't encode characterduang,duang,duang。 曾几何时,这句话困扰我好多年。。 今天终于弄清了出现这句话的原因。
有了不同语言就有不同的编码,伴随着各种稀奇古怪的字符,字符编码一直是程序员心中永远的痛。。
为了在不同的编码中切换,在python中,表达字符串是有两种类型的:
unicode
str没错,就是这么任性。
他们之间存在下面的关系:
unicode ---encode---> str
str ---decode---> unicodeunicode是python的内置编码,以它为中间跳板,可以把字符串在不同的编码中转换。 然而,这两种类型,直接相加会发生戏剧化的隐式转换。而这个转换,与你的系统编码有关!
如果你的机器是ascii的编码(很遗憾,米国的大部分机器还就是这个编码),那么,在 uni_str + xcode_str的时候,uni_str会自动进行encode("ascii"),如果此时uni_str中有中文的话,那就要挂挂了。
别让它们不同类型相加不就行了。 方法一,把unicode转成正确编码的str:
filename = u"大猪.txt" #显示成什么取决于你的机器
result = filename.encode("utf-8") + "haha"方法二,将str转成unicode:
filename = u"大猪.txt" #显示成什么取决于你的机器
result = filename + "haha你".decode('utf-8')
print(result.encode("utf-8"))注意,Print函数如果打印的是系统不认识的编码,还是要挂的哦。所以最后的.encode("utf-8")必不可少,真是一步一坑啊。
就这样,解决了。
就酱,解决了。
有时候,我们需要对网络上的乱七八糟的东西进行编码。这才是神坑。网页上如果有爬虫得来的内容,很可能是一个大大的乱码。
比如,在数据库中,有一行这样的数据u'\xd7\xeeŒ\xc5\xb5\xc4\xcf\xc2\xc2',如何把它正常的显示出来需要做一些判定了。
用下面的函数可以比较好的处理已经入库的各种编码。
# coding:utf-8
text0 = u'\xd7\xeeŒ\xc5\xb5\xc4\xcf\xc2\xc2\xa5\xb7\xbd\xca\xbd'
text1 = u'\xd7\xeeŒ\xc5\xb5\xc4\xcf\xc2\xc2'
text2 = u'\u7528\u4e86\u4e00\u4e0b\u5348\u7ec8\u4e8e\u628a\u6c34\u94f2\u5149\u4e86'
def utf8_or_empty(text):
if repr(text).startswith('u'): # 说明是utf-8字符串
attr = repr(text)[2:4]
if attr == u'\\u':
# unicode字符串,直接返回
return text
elif attr == u'\\x':
# utf-8 or gbk的字符串
try:
temp_text = text.encode('raw_unicode_escape').decode('utf-8')
except UnicodeDecodeError:
temp_text = u""
if not temp_text:
try:
temp_text = text.encode('raw_unicode_escape').decode('gbk')
except:
temp_text = u""
return temp_text
print type(utf8_or_empty(text0))
print utf8_or_empty(text0)
print type(utf8_or_empty(text1))
print utf8_or_empty(text1)
print type(utf8_or_empty(text2))
print utf8_or_empty(text2)参考资料:http://pydoc.net/Python/CodeConvert/2.0.0/CodeConvert/