python3在内存中是用unicode编码方式存储的,所以不能直接储存和传输,要转化为其他编码进行储存和传输。
字符串通过编码转换成字节码,字节码通过解码成为字符串
转码(都变为字节)
encode:str --> bytes
解码(可以将字节解码成指定的编码格式)
decode:bytes --> str
因为计算机只能处理数字,如果要处理文本,就必须先把文本转换为数字才能处理。最早的计算机在设计时采用8个比特(bit)作为一个字节(byte),所以,一个字节能表示的最大的整数就是255(二进制11111111=十进制255),如果要表示更大的整数,就必须用更多的字节。比如两个字节可以表示的最大整数是65535,4个字节可以表示的最大整数是4294967295。
由于计算机是美国人发明的,因此,最早只有127个字符被编码到计算机里,也就是大小写英文字母、数字和一些符号,这个编码表被称为ASCII编码,比如大写字母A的编码是65,小写字母z的编码是122。
但是要处理中文显然一个字节是不够的,至少需要两个字节,而且还不能和ASCII编码冲突,所以,中国制定了GB2312编码,用来把中文编进去。
因此,Unicode应运而生。Unicode把所有语言都统一到一套编码里,这样就不会再有乱码问题了。
Unicode把所有语言都统一到一套编码里,这样就不会再有乱码问题了。
ASCII编码是1个字节,而Unicode编码通常是2个字节。
字母A用ASCII编码是十进制的65,二进制的01000001;
字符0用ASCII编码是十进制的48,二进制的00110000,注意字符’0’和整数0是不同的;
汉字中已经超出了ASCII编码的范围,用Unicode编码是十进制的20013,二进制的01001110 00101101。
你可以猜测,如果把ASCII编码的A用Unicode编码,只需要在前面补0就可以,因此,A的Unicode编码是00000000 01000001。
如果统一成Unicode编码,乱码问题从此消失了。但是,如果你写的文本基本上全部是英文的话,用Unicode编码比ASCII编码需要多一倍的存储空间,在存储和传输上就十分不划算。
所以,本着节约的精神,又出现了把Unicode编码转化为“可变长编码”的UTF-8编码。UTF-8编码把一个Unicode字符根据不同的数字大小编码成1-6个字节,常用的英文字母被编码成1个字节,汉字通常是3个字节,只有很生僻的字符才会被编码成4-6个字节。如果你要传输的文本包含大量英文字符,用UTF-8编码就能节省空间:
在计算机内存中,统一使用Unicode编码,当需要保存到硬盘或者需要传输的时候,就转换为UTF-8编码。
用记事本编辑的时候,从文件读取的UTF-8字符被转换为Unicode字符到内存里,编辑完成后,保存的时候再把Unicode转换为UTF-8保存到文件
浏览网页的时候,服务器会把动态生成的Unicode内容转换为UTF-8再传输到浏览器
u
,str也会被以unicode形式保存新的内存空间中,str可以直接encode成任意编码格式,需要导入包import chardet
没有的话自行安装
def get_encode_info(file):
with open(file, 'rb') as f:
return chardet.detect(f.read())['encoding']
def get_encode_info_s(file):
return chardet.detect(file.encode())['encoding']
name = r"\u6697\u88d4\u5251\u9b54"
print("解码之前的编码格式:"+get_encode_info_s(name))
# 转码然后解码为python能识别的unicode码
str2 = name.encode().decode("unicode-escape")
print("-----------"+str2)
print("解码之后的编码格式:"+get_encode_info_s(str2))
结果:
from chardet.universaldetector import UniversalDetector
# 获取文件编码
def get_encode_info(file):
with open(file, 'rb') as f:
detector = UniversalDetector()
for line in f.readlines():
detector.feed(line)
if detector.done:
break
detector.close()
return detector.result['encoding']
def read_file(file):
with open(file, 'rb') as f:
return f.read()
def write_file(content, file):
with open(file, 'wb') as f:
f.write(content)
def convert_encode2utf8(file, original_encode, des_encode):
file_content = read_file(file)
file_decode = file_content.decode(original_encode,'ignore')
file_encode = file_decode.encode(des_encode)
write_file(file_encode, file)
# fileName文件全路径
# code 需要转换为什么编码,默认utf-8
def fileDecode(fileName,code="utf-8"):
file_content = read_file(fileName)
encode_info = get_encode_info(fileName)
if encode_info != code:
convert_encode2utf8(fileName, encode_info, code)
return get_encode_info(fileName)
if __name__ == "__main__":
filename1 = r'C:\Users\huanmin\Desktop\源码\CHANGES.txt'
print(fileDecode(filename1))
我们可以通过Notepad++ 打开文件右下角可以看到当前文件的编码格式
转码后效果
点赞 -收藏-关注-便于以后复习和收到最新内容有其他问题在评论区讨论-或者私信我-收到会在第一时间回复如有侵权,请私信联系我感谢,配合,希望我的努力对你有帮助^_^
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/weixin_45203607/article/details/121634426
内容来源于网络,如有侵权,请联系作者删除!