python中文乱码问题怎样处理?
发布时间:2022-03-15 16:45:16 所属栏目:语言 来源:互联网
导读:本文主要给大家介绍的是如何解决python中文乱码的问题。一些朋友会使用json.dumps(var,ensure_ascii=False)来解决python中文乱码,但是这不能完全解决。下文小编就给大家分享一些解决python中文乱码的办法。 注意:json.dumps在不同版本的Python下会有不同的
本文主要给大家介绍的是如何解决python中文乱码的问题。一些朋友会使用json.dumps(var,ensure_ascii=False)来解决python中文乱码,但是这不能完全解决。下文小编就给大家分享一些解决python中文乱码的办法。 注意:json.dumps在不同版本的Python下会有不同的表现, 注意下面提到的中文乱码问题在Python3版本中不存在。 注:下面的代码再python 2.7版本下测试通过 # -*- coding: utf-8 -*-odata = {'a' : '你好'}print odata 结果: {'a': 'xe4xbdxa0xe5xa5xbd'} print json.dumps(odata) 结果: {"a": "u4f60u597d"} print json.dumps(odata,ensure_ascii=False) 结果: {"a": "浣�濂�"} print json.dumps(odata,ensure_ascii=False).decode('utf8').encode('gb2312') 结果: {"a": "你好"} 要解决中文编码,需要知道python2.7对字符串是怎么处理的: 由于# -- coding: utf-8 --的作用,文件内容以utf-8编码,所以print odata 输出的是utf-8编码后的结果 {‘a': ‘xe4xbdxa0xe5xa5xbd'} json.dumps 序列化时对中文默认使用的ascii编码, print json.dumps(odata)输出unicode编码的结果 print json.dumps(odata,ensure_ascii=False)不使用的ascii编码,以gbk编码 。‘你好' 用utf8编码是 %E4%BD%A0%E5%A5%BD 用gbk解码是 浣�濂� 字符串在Python内部的表示是unicode编码。 因此,在做编码转换时,通常需要以unicode作为中间编码,即先将其他编码的字符串解码(decode)成unicode,再从unicode编码(encode)成另一种编码。 decode的作用是将其他编码的字符串转换成unicode编码 decode('utf-8')表示将utf-8编码的字符串转换成unicode编码。 encode的作用是将unicode编码转换成其他编码的字符串 encode(‘gb2312')表示将unicode编码的字符串转换成gb2312编码。 python3中没有这种问题,所以最简单的方法是引入__future__模块,把新版本的特性导入到当前版本 from __future__ import unicode_literalsprint json.dumps(odata,ensure_ascii=False) 结果: {"a": "你好"} 在写入文件的时候出现了Python2.7的UnicodeEncodeError: ‘ascii' codec can't encode异常错误 大神的解决方法: 不使用open打开文件,而使用codecs: from __future__ import unicode_literalsimport codecsfp = codecs.open('output.txt', 'a+', 'utf-8') fp.write(json.dumps(m,ensure_ascii=False))fp.close() (编辑:濮阳站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |