Java XML Parser для огромных файлов

Мне нужен синтаксический анализатор xml для анализа файла размером примерно 1,8 ГБ.
Поэтому анализатор не должен загружать весь файл в память.

Любые предложения?

Ответы

Ответ 2

Используйте синтаксический анализатор на основе SAX, который представляет вам содержимое документа в потоке событий.

Ответ 3

API StAX проще справляться с SAX. Вот краткое руководство

Ответ 4

Поток файла в синтаксический анализатор SAX и чтение его в память в кусках.

SAX дает вам большой контроль и управление событиями имеет смысл. Апи немного сложно понять, вам нужно обратить внимание на некоторые вещи, например, когда вызывается метод characters(), но основная идея заключается в том, что вы пишете обработчик содержимого, который вызывается, когда начинается и заканчивается каждый читается элемент xml. Таким образом, вы можете отслеживать текущий xpath в документе, определять, какие пути имеют данные, которые вас интересуют, и определить, какой путь обозначает конец фрагмента, который вы хотите сохранить или передать или каким-либо другим способом.

Ответ 5

Попробуйте VTD-XML. Я считаю, что это более эффективный и, что более важно, более простой в использовании, чем SAX.

Ответ 6

Как говорили другие, используйте синтаксический анализатор SAX, так как это потоковый анализатор. Используя различные события, вы извлекаете свою информацию по мере необходимости, а затем на лету храните ее где-то еще (база данных, другой файл, что у вас есть).

Вы даже можете сохранить его в памяти, если вам действительно нужно небольшое подмножество, или если вы просто суммируете файл. Зависит от варианта использования, конечно.

Если вы буферизируетесь в БД, убедитесь, что проявляете осторожность, чтобы сделать ваш процесс перезагруженным или каким-либо другим. Многое может случиться в 1,8 ГБ, что может потерпеть неудачу в середине.

Ответ 7

Используйте почти любой SAX Parser для потока файл немного за раз.

Ответ 8

У меня была аналогичная проблема - мне пришлось прочитать целый XML файл и создать структуру данных в памяти. В этой структуре данных (все должно было быть загружено) мне пришлось выполнять различные операции. Многие элементы XML содержали текст (который я должен был выводить в свой выходной файл, но не был важен для алгоритма).

В общем, как было предложено здесь, я использовал SAX для анализа файла и создания моей структуры данных. Мой файл был 4 ГБ, и у меня была 8-гигабайтная машина, поэтому я подумал, что, возможно, 3 ГБ файла - это просто текст, а java.lang.String, вероятно, потребуется 6 ГБ для этого текста, используя его UTF-16.

Если JVM занимает больше места, чем компьютер имеет физическую RAM, тогда машина будет меняться. Выполнение сбора мусора с меткой + sweep приведет к тому, что страницы получат доступ в случайном порядке, а также объекты, перемещаемые из одного пула объектов в другой, что в основном убивает машину.

Итак, я решил написать все свои строки на диск в файле (FS, очевидно, может обрабатывать последовательную запись 3GB в порядке, а при чтении в ОС будет использовать доступную память для кеша файловой системы; все равно могут быть чтения с произвольным доступом, но меньше, чем GC в java). Я создал небольшой вспомогательный класс, который вы более чем можете скачать, если вам это поможет: StringsFile javadoc | Скачать ZIP.

StringsFile file = new StringsFile();
StringInFile str = file.newString("abc");        // writes string to file
System.out.println("str is: " + str.toString()); // fetches string from file

Ответ 9

+1 для StaX. Это проще в использовании, чем SaX, потому что вам не нужно писать обратные вызовы (вы, по сути, просто перебираете все элементы времени, пока не закончите), и у него (AFAIK) нет ограничений по размеру файлов, которые он может обрабатывать.