Python 3文本处理需明确字节→字符串的编码转换:读文件必须指定encoding;requests优先用content手动decode;用charset-normalizer/chardet检测编码并设置信阈值;异常时采用errors策略或fallback解码链,并记录原始字节特征。
Python处理文本时,编码识别和异常处理是绕不开的痛点。文件读取报 UnicodeDecodeError、requests返回乱码、不同系统默认编码不一致……问题根源往往不是代码写错,而是没理清“字节→字符串”的转换逻辑。核心就一条:Python 3 中字符串是 Unicode,所有 I/O 操作都必须明确指定或可靠推断字节流的编码。
根本原因是:Python 不会自动猜编码,而很多场景(如读文件、收 HTTP 响应)只给字节(bytes),却没附带编码信息。你用错解码方式(比如用 utf-8 解一个实际是 gbk 的文件),就会抛异常。
常见触发点:
open(file, 'r') 没加 encoding 参数(依赖系统默认,Windows 常是 cp936,Linux/macOS 是 utf-8)requests.get(url).text,但响应头没声明 charset,requests 可能误判手动试 utf-8、gbk、latin-1 效率低还易漏。推荐组合使用:
立即学习“Python免费学习笔记(深入)”;
pip install cha
rdet,对字节流做统计分析。注意它只是概率推测,短文本准确率下降,建议加置信阈值(confidence > 0.7)charset-normalizer file.txt
Content-Type: text/html; charset=utf-8、XML/HTML 文件开头的 、文件 BOM(\xef\xbb\xbf = UTF-8,\xff\xfe = UTF-16 LE)——这些比库检测更可靠捕获 UnicodeDecodeError 后,不能只打印错误然后退出。实用做法是:
errors 策略:在 open() 或 .decode() 中用 errors='ignore'(丢掉非法字节)、'replace'(替换成 )、'backslashreplace'(转义成 \xNN)。适合预处理脏数据,但会丢失信息raw[:50].hex())和错误位置(e.start, e.end),方便人工判断是 BOM 缺失、还是混合编码encoding,哪怕你觉得“应该没问题”。IDE 或编辑器保存时编码可能和你预期不同requests 时,优先用 r.content + 手动 decode,而不是 r.text。因为 r.text 依赖 r.encoding,而后者可能被 headers 或 chardet 错误覆盖encoding,避免跨平台打开乱码。UTF-8 是最安全的默认选择(加 open(..., encoding='utf-8'))