ngu*_*dhn 3 python string unicode json python-3.x
我正在处理一个包含一些未知编码字符串的 JSON 文件,如下例所示:
"L\u00c3\u00aa Nguy\u00e1\u00bb\u0085n Ph\u00c3\u00ba"
Run Code Online (Sandbox Code Playgroud)
我已经通过json.load()在Python 3.7环境中使用函数加载了此文本,并尝试使用我在 Internet 上找到的一些方法对其进行编码/解码,但我仍然无法按预期获得正确的字符串。(在这种情况下,它必须是Lê Nguy?n Phú)。
我的问题是,他们使用的编码方法是什么,以及如何在 Python 中以正确的方式解析这些文本?
因为 JSON 文件来自我没有处理的外部源,因此我无法知道或在编码文本的过程中进行任何更改。
[更新] 更多详情:
JSON 文件如下所示:
{
"content":"L\u00c3\u00aa Nguy\u00e1\u00bb\u0085n Ph\u00c3\u00ba"
}
Run Code Online (Sandbox Code Playgroud)
首先,我加载了 JSON 文件:
with open(json_path, 'r') as f:
data = json.load(f)
Run Code Online (Sandbox Code Playgroud)
但是当我提取内容时,这不是我所期望的:
string = data.get('content', '')
print(string)
'Lê Nguyá»\x85n Phú'
Run Code Online (Sandbox Code Playgroud)
有人使用“Lê Nguy?n Phú”,将其编码为 UTF-8,然后将生成的字节序列告诉 JSON 编码器,告诉它这些字节是字符串的字符。然后 JSON 编码器通过对这些字符进行编码来协同产生垃圾。但它是可逆的垃圾。你可以使用类似的东西来逆转这个过程
json.loads(in_string).encode("latin_1").decode("utf_8")
Run Code Online (Sandbox Code Playgroud)
它从 JSON 解码字符串,从中提取字节(Latin-1 中的 256 个符号与前 256 个 Unicode 代码点一一对应),然后将这些字节重新解码为 UTF-8。
这种技术的一个大问题是,它只有在您确定所有输入都以这种方式出现乱码时才有效……没有完全可靠的方法来查看输入并决定是否应该对其应用这种损坏的解码. 如果您尝试将其应用于包含 U+00FF 以上代码点的有效编码字符串,它将崩溃。但是,如果您尝试将其应用于仅包含高达 U+00FF 的代码点的有效编码字符串,它会将您完美的字符串变成另一种垃圾。