问题:Python str与unicode类型
使用Python 2.7,我想知道使用type unicode
代替真正的优势是什么str
,因为它们似乎都能够容纳Unicode字符串。除了能够unicode
使用转义字符在字符串中设置Unicode代码之外,还有什么特殊的原因\
吗?:
使用以下命令执行模块:
# -*- coding: utf-8 -*-
a = 'á'
ua = u'á'
print a, ua
结果:á,á
编辑:
使用Python Shell进行更多测试:
>>> a = 'á'
>>> a
'\xc3\xa1'
>>> ua = u'á'
>>> ua
u'\xe1'
>>> ua.encode('utf8')
'\xc3\xa1'
>>> ua.encode('latin1')
'\xe1'
>>> ua
u'\xe1'
因此,该unicode
字符串似乎是使用latin1
而不是编码的utf-8
,而原始字符串是使用utf-8
?编码的 我现在更加困惑!:S
回答 0
unicode
用于处理文本。文本是一个代码点序列,可能大于一个字节。文本可以被编码在一个特定的编码来表示文本作为原始字节(例如utf-8
,latin-1
…)。
注意,这unicode
是没有编码的!python使用的内部表示形式是实现细节,只要它能够表示所需的代码点,您就不必在意它。
相反,str
在Python 2中是字节的简单序列。它不代表文字!
您可以将其unicode
视为某些文本的一般表示形式,可以用许多不同的方式将其编码为通过表示的二进制数据序列str
。
注意:在Python 3中,unicode
已重命名为,str
并且bytes
为普通字节序列提供了一种新类型。
您可以看到一些差异:
>>> len(u'à') # a single code point
1
>>> len('à') # by default utf-8 -> takes two bytes
2
>>> len(u'à'.encode('utf-8'))
2
>>> len(u'à'.encode('latin1')) # in latin1 it takes one byte
1
>>> print u'à'.encode('utf-8') # terminal encoding is utf-8
à
>>> print u'à'.encode('latin1') # it cannot understand the latin1 byte
�
请注意,使用时,str
您可以控制特定编码表示形式的单个字节,而使用时unicode
,则只能在代码点级别进行控制。例如,您可以执行以下操作:
>>> 'àèìòù'
'\xc3\xa0\xc3\xa8\xc3\xac\xc3\xb2\xc3\xb9'
>>> print 'àèìòù'.replace('\xa8', '')
à�ìòù
以前是有效的UTF-8,现在已经不复存在了。使用unicode字符串,您不能以结果字符串不是有效的unicode文本的方式进行操作。您可以删除代码点,将代码点替换为其他代码点等,但不能与内部表示混淆。
回答 1
Unicode和编码是完全不同的,无关的东西。
统一码
为每个字符分配一个数字ID:
- 0x41→A
- 0xE1→á
- 0x414→Д
因此,Unicode将数字0x41分配给A,将0xE1分配给á,将0x414分配给Д。
即使是我使用的小箭头也有其Unicode数字,即0x2192。甚至表情符号都有其Unicode数字,😂是0x1F602。
您可以在此表中查找所有字符的Unicode数字。特别是,你可以找到上面的前三个字符这里,箭头在这里,和表情符号在这里。
这些由Unicode分配给所有字符的数字称为代码点。
所有这些的目的是提供一种明确地引用每个字符的方法。例如,如果我在谈论😂,而不是说“你知道,这笑着哭的表情含泪”,我可以说Unicode代码点0x1F602。比较容易,对吧?
请注意,Unicode代码点通常使用前导格式U+
,然后将十六进制数字值填充为至少4位数字。因此,以上示例为U + 0041,U + 00E1,U + 0414,U + 2192,U + 1F602。
Unicode代码点的范围从U + 0000到U + 10FFFF。那是1,114,112数字。这些数字中的2048个用于代理,因此,剩下1,112,064。这意味着,Unicode可以为1,112,064个不同的字符分配唯一的ID(代码点)。尚未将所有这些代码点都分配给一个字符,并且Unicode不断扩展(例如,当引入新的表情符号时)。
要记住的重要一点是,所有Unicode所做的就是为每个字符分配一个称为代码点的数字ID,以便于进行明确的引用。
编码方式
将字符映射到位模式。
这些位模式用于表示计算机内存或磁盘上的字符。
有许多不同的编码覆盖了字符的不同子集。在说英语的世界中,最常见的编码如下:
ASCII码
将128个字符(代码点U + 0000到U + 007F)映射到长度为7的位模式。
例:
- a→1100001(0x61)
您可以在此表中看到所有映射。
ISO 8859-1(又名Latin-1)
将191个字符(代码点U + 0020到U + 007E和U + 00A0到U + 00FF)映射到长度为8的位模式。
例:
- a→01100001(0x61)
- á→11100001(0xE1)
您可以在此表中看到所有映射。
UTF-8
将1,112,064个字符(所有现有的Unicode代码点)映射到长度为8、16、24或32位(即1、2、3或4个字节)的位模式。
例:
- a→01100001(0x61)
- á→11000011 10100001(0xC3 0xA1)
- ≠→11100010 10001001 10100000(0xE2 0x89 0xA0)
- 😂→11110000 10011111 10011000 10000010(0xF0 0x9F 0x98 0x82)
UTF-8将字符编码为位字符串的方式在此处得到了很好的描述。
Unicode和编码
通过上面的示例,可以清楚地了解Unicode是如何有用的。
例如,如果我是Latin-1,并且想解释一下á的编码,则无需说:
“我用aigu(或您将其称为上升条)编码为11100001”
但是我只能说:
“我将U + 00E1编码为11100001”
如果我是UTF-8,我可以说:
“我又将U + 00E1编码为11000011 10100001”
每个人都清楚知道我们指的是哪个角色。
现在到经常出现的混乱
的确,如果将编码的位模式解释为二进制数,则有时与此字符的Unicode代码点相同。
例如:
- ASCII编码一个为1100001,您可以解释为十六进制数0x61,和的Unicode代码点一个是U + 0061。
- Latin-1将á编码为11100001,可以将其解释为十六进制数字0xE1,而á的Unicode代码点是U + 00E1。
当然,为了方便起见,已经对此进行了安排。但是您应该将其视为纯粹的巧合。用于表示内存中字符的位模式与该字符的Unicode代码点没有任何关联。
甚至没人说您必须将11100001之类的字符串解释为二进制数。只需将其视为Latin-1用来编码字符á的位序列即可。
回到您的问题
您的Python解释器使用的编码为UTF-8。
这是您的示例中发生的事情:
例子1
以下代码以UTF-8编码字符á。这将产生位字符串11000011 10100001,该位字符串将保存在变量中a
。
>>> a = 'á'
当您查看的值时a
,其内容11000011 10100001的格式设置为十六进制数字0xC3 0xA1,并输出为'\xc3\xa1'
:
>>> a
'\xc3\xa1'
例子2
下面的代码将á的Unicode代码点U + 00E1保存在变量中ua
(我们不知道Python内部使用哪种数据格式在内存中表示代码点U + 00E1,这对我们来说并不重要):
>>> ua = u'á'
当您查看的值时ua
,Python会告诉您它包含代码点U + 00E1:
>>> ua
u'\xe1'
例子3
以下代码使用UTF-8对Unicode代码点U + 00E1(表示字符á)进行编码,结果得到位模式1100001110100001。同样,对于输出,该位模式也表示为十六进制数字0xC3 0xA1:
>>> ua.encode('utf-8')
'\xc3\xa1'
例子4
下面的代码使用Latin-1对Unicode代码点U + 00E1(表示字符á)进行编码,从而得到位模式11100001。对于输出,该位模式表示为十六进制数字0xE1,巧合的是,其与初始字符相同。码点U + 00E1:
>>> ua.encode('latin1')
'\xe1'
Unicode对象ua
和Latin-1编码之间没有关系。á的代码点为U + 00E1,而á的Latin-1编码为0xE1(如果将编码的位模式解释为二进制数)纯属巧合。
回答 2
您的终端碰巧已配置为UTF-8。
印刷的事实a
是一个巧合;您正在将原始UTF-8字节写入终端。a
是长度的值2,含有两个字节,十六进制值C3和A1,而ua
是长度的Unicode值一个,包含一个编码点U + 00E1。
这种长度上的差异是使用Unicode值的主要原因之一。您无法轻松地测量字节字符串中文本字符的数量;该len()
字节串的告诉你有多少字节被使用,许多字符没有编码方式。
你可以看到差异,当你编码的Unicode值到不同的输出编码:
>>> a = 'á'
>>> ua = u'á'
>>> ua.encode('utf8')
'\xc3\xa1'
>>> ua.encode('latin1')
'\xe1'
>>> a
'\xc3\xa1'
请注意,Unicode标准的前256个代码点与Latin 1标准匹配,因此U + 00E1代码点被编码为Latin 1作为具有十六进制值E1的字节。
此外,Python同样在unicode和字节字符串的表示形式中使用转义码,并且使用\x..
转义值表示不可打印ASCII的低代码点。这就是为什么一个Unicode字符串,128米255的外观之间的代码点只是喜欢拉丁1个编码。如果您的unicode字符串的代码点超过U + 00FF,\u....
则使用不同的转义序列,并使用四位十六进制值。
看来您尚未完全了解Unicode和编码之间的区别。在继续之前,请务必阅读以下文章:
每个软件开发人员绝对,肯定必须绝对了解Unicode和字符集(无借口!)作者:Joel Spolsky
Ned Batchelder的实用Unicode
回答 3
当您将a定义为unicode时,字符a和á相等。否则,á被视为两个字符。尝试len(a)和len(au)。除此之外,在其他环境中工作时可能需要编码。例如,如果您使用md5,则a和ua的值将不同