Ответ 1
Пределы сжатия продиктованы случайностью источника. Добро пожаловать в изучение теории информации ! См. сжатие данных.
Представьте, что в вашем распоряжении все суперкомпьютеры в мире в течение следующих 10 лет. Ваша задача состояла в том, чтобы сжать 10 полнометражных фильмов без потерь как можно больше. Еще один критерий состоял в том, что нормальный компьютер должен иметь возможность распаковывать его "на лету" и не должен тратить большую часть своего HD для установки программного обеспечения для распаковки.
Мой вопрос в том, насколько больше сжатия можно было бы достичь, чем лучшие альтернативы сегодня? 1%, 5%, 50%? Более конкретно: существует ли теоретический предел для сжатия, учитывая фиксированный размер словаря (если он называется также для сжатия видео)?
Пределы сжатия продиктованы случайностью источника. Добро пожаловать в изучение теории информации ! См. сжатие данных.
Существует теоретический предел: я предлагаю прочитать статью по теории информации и принципу голубиной дыры. Это, кажется, подводит итог этой проблеме очень легко понять.
Если у вас есть фиксированный каталог всех фильмов, которые вы когда-либо собирались сжать, вы можете просто отправить идентификатор фильма и получить "декомпрессию" поиск данных с этим индексом. Таким образом, сжатие может быть связано с фиксированным размером бит log2 (N), где N - количество фильмов.
Я подозреваю, что практическая нижняя граница намного выше.
Вы действительно имеете в виду без потерь? Я думаю, что сегодня большинство видеоизображений сжимается.