Chinaunix首页 | 论坛 | 博客
  • 博客访问: 29309537
  • 博文数量: 2065
  • 博客积分: 10377
  • 博客等级: 上将
  • 技术积分: 21525
  • 用 户 组: 普通用户
  • 注册时间: 2008-11-04 17:50
文章分类

全部博文(2065)

文章存档

2012年(2)

2011年(19)

2010年(1160)

2009年(969)

2008年(153)

分类: Python/Ruby

2010-04-03 16:34:30

字符串在Python内部的表示是unicode编码,因此,在做编码转换时,通常需要以unicode作为中间编码,即先将其他编码的字符串解码(decode)成unicode,再从unicode编码(encode)成另一种编码。

decode的作用是将其他编码的字符串转换成unicode编码,如str1.decode('gb2312'),表示将gb2312编码的字符串str1转换成unicode编码。

encode的作用是将unicode编码转换成其他编码的字符串,如str2.encode('gb2312'),表示将unicode编码的字符串str2转换成gb2312编码。

因此,转码的时候一定要先搞明白,字符串str是什么编码,然后decode成unicode,然后再encode成其他编码

代码中字符串的默认编码与代码文件本身的编码一致。
如:s='中文'
如果是在utf8的文件中,该字符串就是utf8编码,如果是在gb2312的文件中,则其编码为gb2312。

(与代码本身的编码是一致的!)

测试:
我的eclipse里面代码为utf-8编码的。然后我这样写代码
s="你好"
s=s.decode('gb2312').encode('utf-8')
print s
报错:
UnicodeDecodeError: 'gb2312' codec can't decode bytes in position 2-3: illegal multibyte sequence
原因:因为我的文件为UTF-8编码的。所以你想用gb2312将其转成unicode是不可能的。
所以正确的写法应当是:
s="你好"
print s
s=s.decode('utf-8').encode('utf-8') 要用UTF-8来做编码
print s
哈哈发现打印出来的是乱码那只能说明一件事情就是我的eclipse控制台是GB2312的编码!

请看:
如何获得系统的默认编码?
#!/usr/bin/env python
#coding=utf-8
import sys
print sys.getdefaultencoding()

该段程序在英文WindowsXP上输出为:ascii  。我发现我的linux上面也是ascii编码。所以我想打印出来看到的乱码是正常的。因为我其实是utf-8编码的。

在某些IDE中,字符串的输出总是出现乱码,甚至错误,其实是由于IDE的结果输出控制台自身不能显示字符串的编码,而不是程序本身的问题。(是的。我的eclipse控制台就是gb2312的编码所以我文件保存为utf-8的时候然后再通过打印是乱码了!)


1、读文件命令肯定是:
myfile = codecs.open("c.html","r","utf-8") 因为我用gb2312来读的话报错

心得:检查一个字符串是什么编码只需要看一下decode 如果用gb2312来decode没报错的话就表示是gb2312
如果用utf-8来decode没有报错的话就表示是utf-8

现在遇到一个问题就是
请看:
myfile = codecs.open("c.html","r","utf-8") 
str = myfile.read()                               
content = str.replace("\n"," ")  
content = content.encode('utf-8')
print content
没有报错
再看:
myfile = codecs.open("c.html","r","utf-8") 
str = myfile.read()                                 #显示中文
content = str.replace("\n"," ")  
content = content.encode('gb2312')                 用gb2312
print content
报错:UnicodeEncodeError: 'gb2312' codec can't encode character u'\u2014' in position 12628

再看:
myfile = codecs.open("d.html","r","utf-8") 
str = myfile.read()                                 #显示中文
content = str.replace("\n"," ")  
content = content.encode('gb2312')                 用gb2312
print content
没问题
myfile = codecs.open("d.html","r","utf-8") 
str = myfile.read()                                 #显示中文
content = str.replace("\n"," ")  
content = content.encode('utf-8')                
print content
也没问题

结论:我想是c.html页面里面 存在某些 特殊字符 只支持utf-8编码。而不支持gb2312的编码!
而d.html没有这种特殊字符。这也就解释了为什么
有的文件并没有发生我们想像中的问题!

所以我感觉打开文件肯定是用utf-8来读取得到一个unicode编码值!
然后对其做utf-8的编码处理。因为如果你做gb2312处理的话就会报错了!

接着:
我看了一下我的正则表达式发现如果用gb2312做解码处理的话一样会报错。所以断定肯定是utf-8编码了!
regex3 = regex3.decode('utf-8')
print type(regex3)                #返回为unicode码了!
print regex3                      #居然打印为正常的中文显示了 奇怪

尝试解决办法:
1、全部用unicode处理
即正则我用regex3 = regex3.decode('utf-8') 将其处理成 unicode编码了。然后内容也
print type(content)  也是unicode编码。结果还是不行!

难道是我的linux终端的编码引起的吗?我看了一下
locale  发现是GBK的终端的。即只有GBK编码才能显示出来为中文的!
于是我将
regex3 = regex3.decode('utf-8').encode('gb2312') 编码成gb2312结果可以显示中文!

OK。我又将我的内容也一起弄成GB2312
content = content.encode('gb2312','ignore')
print content                 也可以成功打印出来中文。

我想这个时候应该没有什么问题了吧。结果一用正则又死掉了。昏死!!!!!!!

换另外一个好的文件测试下看看:换了之后发现没死而且成功了!

所以我觉得:肯定是这个文件里面的某些内容与正则匹配出现了冲突!导致的!

继续跟踪:
出现如下的情况
myfile = codecs.open("01.htm","r","utf-8","ignore")             
str = myfile.read()                              
content = str.replace("\n"," ")
print type(content)                               #发现是unicode码
regex3 = 'class=wpcpsCSS>([^<]+)(?:.*?wpcppb_CSS> ([0-9]+) )?.*?(?:.*?(已被关闭))?.*?([0-9]+)个回答.*?([0-9]+)次浏览.*?(?:
.*?user\?userid=([0-9]+).*?>(.*?)
.*?)?(?:user\?userid=([0-9]+)")? class="wpfitCSS[^"]+">([^<]+).*?class=wpcptsCSS>([^<]+).*?([0-9.]{9,}\*).*?class=wpcpdCSS>(.*?)
'
content = content.encode('utf-8')
p=re.compile(regex3)
results = p.findall(content)

没有什么问题可以成功出来结果。但是我
将content = content.encode('gb2312') 的话就发现 死掉了!
说明我的内容content与我的正则的编码其实是不一样的!
我现在将我的正则也调成gb2312来测试。结果发现可以出来。而且我的结果
results = p.findall(content)
for ele in results:
    print ele[0],ele[1],ele[2],ele[3],ele[4],ele[5],ele[6],ele[7],ele[8],ele[9],ele[10]
在eclipse(默认为gb2312)下面也是没有问题的了!~

所以我想:如果content是GBK那正则的内容也应当是GBK 即两者的编码一定要保持一致!否则就会出现死掉程序的情况!



现在我这样来处理
全部使用unicode编码处理

myfile = codecs.open("right.html","r")   
str = myfile.read()                                
content = str.replace("\n"," ")
content = content.decode('utf-8','ignore')     #使用utf-8解码出来
都使用unicode编码吧
现在正则也用
regex3 = regex3.decode('utf-8','ignore')  使用utf-8搞成unicode编码

OK现在再来测试!

结论:
解决正则出现中文的BUG结论:
1、打开文件
myfile = codecs.open("right.html","r") 
不需要设置其编码的!

设置编码格式
str = myfile.read()                             
content = str.replace("\n"," ")
content = content.decode('utf-8','ignore')   #使用utf-8解码成unicode格式

正则:
regex3 = regex3.decode('utf-8','ignore')    #正则也统一使用utf-8解码成unicode格式

然后就可以
p=re.compile(regex3)
results = p.findall(content)
调用正则了!

这样我就不用担心说 因为编码问题导致出来的错误。

Python之所以出现100%的CPU消耗原因在于 我的正则里面有一个死循环一直出不来。汗!!!!!!






阅读(1338) | 评论(1) | 转发(0) |
给主人留下些什么吧!~~

chinaunix网友2010-06-24 19:10:06

今天遇到了一个问题我的页面里面有这样的全角字符【】全角字符。然后我用 decode("utf-8")总有问题。解决办法如下: content = detail_top.decode("utf-8", "ignore") try: laiba_article = "content`,`create_time`) values('%s','%s',%d,'%s','%s','%s','%s')" % (self.quotesql(content),create_time) self.connmysql.executeone(laiba_article) except Exception,e: self.log.log("Error310:"+str(e)) 注意:先做decode处理生成了unicode编码。然后再拼结组成一条SQL语句