Facebook JSON плохо закодирован
Я загрузил данные Facebook-мессенджера (в вашей учетной записи Facebook, перейдите к настройкам, затем в свою информацию в Facebook), затем загрузите свою информацию, затем создайте файл, по крайней мере, в поле "Сообщения"), чтобы сделать отличную статистику
Однако есть небольшая проблема с кодировкой. Я не уверен, но похоже, что Facebook использовал плохую кодировку для этих данных. Когда я открываю его с помощью текстового редактора, я вижу что-то вроде этого: Rados\u00c5\u0082aw
. Когда я пытаюсь открыть его с помощью python (UTF-8), я получаю RadosÅ\x82aw
. Однако я должен получить: Radosław
.
Мой скрипт python:
text = open(os.path.join(subdir, file), encoding='utf-8')
conversations.append(json.load(text))
Я пробовал несколько наиболее распространенных кодировок. Примеры данных:
{
"sender_name": "Rados\u00c5\u0082aw",
"timestamp": 1524558089,
"content": "No to trzeba ostatnie treningi zrobi\u00c4\u0087 xD",
"type": "Generic"
}
Ответы
Ответ 1
Я действительно могу подтвердить, что данные загрузки Facebook неправильно закодированы; Mojibake. Исходные данные кодируются UTF-8, но вместо этого декодируются как латинские -1. Обязательно зарегистрируйте отчет об ошибке.
Тем временем вы можете восстановить повреждение двумя способами:
-
Декодируйте данные как JSON, затем перекодируйте любые строки как латинские -1, снова декодируйте как UTF-8:
>>> import json
>>> data = r'"Rados\u00c5\u0082aw"'
>>> json.loads(data).encode('latin1').decode('utf8')
'Radosław'
-
Загрузите данные как двоичные, замените все последовательности \u00hh
байтом, которые представляют две последние шестнадцатеричные цифры, декодируются как UTF-8, а затем декодируются как JSON:
import re
from functools import partial
fix_mojibake_escapes = partial(
re.compile(rb'\\u00([\da-f]{2})').sub,
lambda m: bytes.fromhex(m.group(1).decode()))
with open(os.path.join(subdir, file), 'rb') as binary_data:
repaired = fix_mojibake_escapes(binary_data.read())
data = json.loads(repaired.decode('utf8'))
Из ваших выборочных данных получается:
{'content': 'No to trzeba ostatnie treningi zrobić xD',
'sender_name': 'Radosław',
'timestamp': 1524558089,
'type': 'Generic'}
Ответ 2
Мое решение для анализа объектов использует parse_hook
обратного вызова parse_hook
для функции load/load:
import json
def parse_obj(dct):
for key in dct:
dct[key] = dct[key].encode('latin_1').decode('utf-8')
pass
return dct
data = '{"msg": "Ahoj sv\u00c4\u009bte"}'
# String
json.loads(data)
# Out: {'msg': 'Ahoj svÄ\x9bte'}
json.loads(data, object_hook=parse_obj)
# Out: {'msg': 'Ahoj světe'}
# File
with open('/path/to/file.json') as f:
json.load(f, object_hook=parse_obj)
# Out: {'msg': 'Ahoj světe'}
pass
Обновить:
Решение для разбора списка со строками не работает. Итак, вот обновленное решение:
import json
def parse_obj(obj):
for key in obj:
if isinstance(obj[key], str):
obj[key] = obj[key].encode('latin_1').decode('utf-8')
elif isinstance(obj[key], list):
obj[key] = list(map(lambda x: x if type(x) != str else x.encode('latin_1').decode('utf-8'), obj[key]))
pass
return obj
Ответ 3
Основываясь на решении @Martijn Pieters, я написал нечто похожее на Java.
public String getMessengerJson(Path path) throws IOException {
String badlyEncoded = Files.readString(path, StandardCharsets.UTF_8);
String unescaped = unescapeMessenger(badlyEncoded);
byte[] bytes = unescaped.getBytes(StandardCharsets.ISO_8859_1);
String fixed = new String(bytes, StandardCharsets.UTF_8);
return fixed;
}
Метод unescape основан на org.apache.commons.lang.StringEscapeUtils.
private String unescapeMessenger(String str) {
if (str == null) {
return null;
}
try {
StringWriter writer = new StringWriter(str.length());
unescapeMessenger(writer, str);
return writer.toString();
} catch (IOException ioe) {
// this should never ever happen while writing to a StringWriter
throw new UnhandledException(ioe);
}
}
private void unescapeMessenger(Writer out, String str) throws IOException {
if (out == null) {
throw new IllegalArgumentException("The Writer must not be null");
}
if (str == null) {
return;
}
int sz = str.length();
StrBuilder unicode = new StrBuilder(4);
boolean hadSlash = false;
boolean inUnicode = false;
for (int i = 0; i < sz; i++) {
char ch = str.charAt(i);
if (inUnicode) {
unicode.append(ch);
if (unicode.length() == 4) {
// unicode now contains the four hex digits
// which represents our unicode character
try {
int value = Integer.parseInt(unicode.toString(), 16);
out.write((char) value);
unicode.setLength(0);
inUnicode = false;
hadSlash = false;
} catch (NumberFormatException nfe) {
throw new NestableRuntimeException("Unable to parse unicode value: " + unicode, nfe);
}
}
continue;
}
if (hadSlash) {
hadSlash = false;
if (ch == 'u') {
inUnicode = true;
} else {
out.write("\\");
out.write(ch);
}
continue;
} else if (ch == '\\') {
hadSlash = true;
continue;
}
out.write(ch);
}
if (hadSlash) {
// then we're in the weird case of a \ at the end of the
// string, let output it anyway.
out.write('\\');
}
}
Ответ 4
Есть идеи, как сделать то же самое с JS (особенно с NodeJ)?
Я попытался следовать вашему скрипту Python, используя iconv-lite для кодирования и декодирования, но безуспешно:
iconv.decode(iconv.encode(str, 'latin1'), 'utf8');
Спасибо !