В части 2 MPEG-4 были некоторые удивительные концепции движения лица и тела, но они исчезли в MPEG-4 Part 10 (H.264). Зачем?
В течение последних нескольких недель у меня была возможность прочитать два документа:
- Спецификация MPEG-4 Part 2 (ISO/IEC 14496-2), которую люди просто называют "mpeg-4"
- Спецификация MPEG-4 Part 10 (ISO/IEC 14496-10), которая также называется "h.264" или "AVC"
После того, как я прочитал все интересные идеи в "mpeg-4", такие как определение выражения лица, движение конечностей людей и спрайты, я действительно взволновался. Идеи звучат очень весело, может быть, даже фантастически, для идеи с 1999 года.
Но затем я прочитал стандарт "h.264", и ни одна из этих идей не была там. Было много дискуссий о том, как кодировать пиксели, но ни одна из действительно классных идей.
Что случилось? Почему эти идеи были удалены?
Это не вопрос кода, но, как программист, я чувствую, что я должен попытаться понять, насколько это важно для спецификации. Если код, который я пишу, придерживается духа, в котором должна была использоваться спецификация, он скорее всего будет позиционировать, чтобы использовать всю спецификацию.
Ответы
Ответ 1
Похоже, вы утверждаете, что спецификация MPEG-4 Part 10 улучшается в части 2 MPEG-4, в то время как факт состоит в том, что эти две спецификации не связаны друг с другом, не имеют ничего общего и даже разработаны разными людьми (MPEG разработали спецификацию Part 2, в то время как ITU-T, ISO, IEC и MPEG вместе разработали спецификацию части 10).
Имейте в виду, что стандарт ISO/IEC 14496 представляет собой набор спецификаций, которые применяются к различным аспектам аудиовизуального кодирования. Цель спецификации Part 2 - кодировать различные виды визуальных объектов (видео, 3D-объекты и т.д.). Цель части 10 - обеспечить очень эффективное и качественное кодирование видео. Другие части стандарта относятся к другим аспектам, например, спецификация части 3 относится к кодированию аудио, а части 12 и 15 определяют формат файла контейнера, который наиболее обычно используется для обертывания видеоролика части 10 (то есть H.264) и части 3 аудио (т.е. AAC) в один файл, так называемый формат .mp4.
Надеюсь, это поможет!
Ответ 2
Немного истории может помочь.
MPEG-4 был разработан как спецификация несущей/контейнера для различных типов передачи данных, связанных с медиа.
Чтобы быть совместимым, устройству приходилось распознавать и игнорировать контент.
Это была реакция на короткое время жизни спецификаций MPEG-1, которые были устаревшими до их формализации.
MPEG-4 можно разделить на
механизмы для транспорта данных генерации изображений
К ним относятся такие очевидные вещи, как
- сжатие
- компенсация движения и явные спрайты
Эксперимент, такой как
- Транспортировка и восстановление 3D и 3D + данных времени с изображения
поток (видео) для обеспечения сжатия и расширения функций.
Механизмы адаптации скорости
В 1999 году был битные скорости от 128 КБ до 1000 Мбит/с/WAN, а спецификация была многие особые случаи и усилия по обеспечению интероперабельности.
Это привело к большой работе комитета, которая стала излишней, поскольку сеть диапазон производительности сужается до минимумов/максимумов от 1 Мбит до 100 Мбит.
Изначально каждая спецификация под солнцем и некоторые еще в сознании создателей были привязаны к среде MPEG-4, за исключением конкурирующих спецификаций, таких как H.264.
Некоторые из спецификаций исчезли из-за того, что деньги выросли в результате краха dot.com, а H.264 и другие слились в MPEG4.
Одна вещь, которую я узнал из этого, - это чтение спецификации без хотя бы примерной реализации, в то время как часто интересная редко бывает продуктивной.
Я думаю, "использование источника Luke" может применяться
или
"Характеристики плохого вкуса без источника".