Python中将带BOM的UTF-8转换为不带BOM的UTF-8
- 2025-02-20 09:22:00
- admin 原创
- 24
问题描述:
这里有两个问题。我有一组文件,它们通常是带 BOM 的 UTF-8。我想将它们(最好是就地)转换为不带 BOM 的 UTF-8。这似乎codecs.StreamRecoder(stream, encode, decode, Reader, Writer, errors)
可以解决这个问题。但我真的没有看到任何好的使用示例。这是处理这个问题的最佳方法吗?
source files:
Tue Jan 17$ file brh-m-157.json
brh-m-157.json: UTF-8 Unicode (with BOM) text
此外,如果我们可以在不明确了解的情况下处理不同的输入编码(例如 ASCII 和 UTF-16),那就太理想了。这似乎都是可行的。有没有一种解决方案可以接受任何已知的 Python 编码并以不带 BOM 的 UTF-8 输出?
编辑 下面提出的 1 个解决方案(感谢!)
fp = open('brh-m-157.json','rw')
s = fp.read()
u = s.decode('utf-8-sig')
s = u.encode('utf-8')
print fp.encoding
fp.write(s)
这给了我以下错误:
IOError: [Errno 9] Bad file descriptor
新闻快讯
评论中告诉我,错误在于我以模式“rw”而不是“r+”/“r+b”打开文件,所以我最终应该重新编辑我的问题并删除已解决的部分。
解决方案 1:
这个答案适用于 Python 2
只需使用“utf-8-sig”编解码器:
fp = open("file.txt")
s = fp.read()
u = s.decode("utf-8-sig")
这样你就得到了一个unicode
没有 BOM 的字符串。然后你可以使用
s = u.encode("utf-8")
以将正常的 UTF-8 编码字符串恢复为s
。如果您的文件很大,则应避免将它们全部读入内存。BOM 只是文件开头的三个字节,因此您可以使用以下代码将它们从文件中删除:
import os, sys, codecs
BUFSIZE = 4096
BOMLEN = len(codecs.BOM_UTF8)
path = sys.argv[1]
with open(path, "r+b") as fp:
chunk = fp.read(BUFSIZE)
if chunk.startswith(codecs.BOM_UTF8):
i = 0
chunk = chunk[BOMLEN:]
while chunk:
fp.seek(i)
fp.write(chunk)
i += len(chunk)
fp.seek(BOMLEN, os.SEEK_CUR)
chunk = fp.read(BUFSIZE)
fp.seek(-BOMLEN, os.SEEK_CUR)
fp.truncate()
它打开文件,读取一个块,并将其写入比读取位置早 3 个字节的文件。文件被就地重写。更简单的解决方案是将较短的文件写入新文件,如newtover 的答案。这会更简单,但在短时间内会占用两倍的磁盘空间。
至于猜测编码,那么您只需循环遍历从最具体到最不具体的编码即可:
def decode(s):
for encoding in "utf-8-sig", "utf-16":
try:
return s.decode(encoding)
except UnicodeDecodeError:
continue
return s.decode("latin-1") # will always work
UTF-16 编码的文件无法解码为 UTF-8,因此我们首先尝试使用 UTF-8。如果失败,则尝试使用 UTF-16。最后,我们使用 Latin-1 — 这始终有效,因为所有 256 个字节在 Latin-1 中都是合法值。None
在这种情况下,您可能希望返回,因为这实际上是一种后备,并且您的代码可能需要更谨慎地处理此问题(如果可以的话)。
解决方案 2:
在 Python 3 中这很容易:读取文件并用utf-8
编码重写它:
s = open(bom_file, mode='r', encoding='utf-8-sig').read()
open(bom_file, mode='w', encoding='utf-8').write(s)
解决方案 3:
import codecs
import shutil
import sys
s = sys.stdin.read(3)
if s != codecs.BOM_UTF8:
sys.stdout.write(s)
shutil.copyfileobj(sys.stdin, sys.stdout)
解决方案 4:
我发现这个问题是因为在打开带有 UTF8 BOM 标头的文件时遇到了问题configparser.ConfigParser().read(fp)
。
对于那些正在寻找解决方案来删除标题以便 ConfigPhaser 可以打开配置文件而不是报告错误的人:
File contains no section headers
,请按如下方式打开文件:
configparser.ConfigParser().read(config_file_path, encoding="utf-8-sig")
通过这种方式,就不需要删除文件的 BOM 头,从而节省大量精力。
(我知道这听起来不相关,但希望这可以帮助像我一样苦苦挣扎的人。)
解决方案 5:
这是我的实现方法,将任何类型的编码转换为不带 BOM 的 UTF-8,并用通用格式替换 Windows 编码:
def utf8_converter(file_path, universal_endline=True):
'''
Convert any type of file to UTF-8 without BOM
and using universal endline by default.
Parameters
----------
file_path : string, file path.
universal_endline : boolean (True),
by default convert endlines to universal format.
'''
# Fix file path
file_path = os.path.realpath(os.path.expanduser(file_path))
# Read from file
file_open = open(file_path)
raw = file_open.read()
file_open.close()
# Decode
raw = raw.decode(chardet.detect(raw)['encoding'])
# Remove windows end line
if universal_endline:
raw = raw.replace('
', '
')
# Encode to UTF-8
raw = raw.encode('utf8')
# Remove BOM
if raw.startswith(codecs.BOM_UTF8):
raw = raw.replace(codecs.BOM_UTF8, '', 1)
# Write to file
file_open = open(file_path, 'w')
file_open.write(raw)
file_open.close()
return 0
解决方案 6:
您可以使用编解码器。
import codecs
with open("test.txt",'r') as filehandle:
content = filehandle.read()
if content[:3] == codecs.BOM_UTF8:
content = content[3:]
print content.decode("utf-8")
解决方案 7:
在 python3 中你应该添加encoding='utf-8-sig'
:
with open(file_name, mode='a', encoding='utf-8-sig') as csvfile:
csvfile.writelines(rows)
就是这样。