Сетевые решения произвели революцию в построении систем видеонаблюдения. В отличие от традиционных методов работы с несжатым видео, сетевая среда освобождает разработчика системы от ограничений и позволяет использовать новые возможности подключения, хранения видеоданных, управления и оперирования ими. Существует много причин, по которым следует применять сетевые решения. Каждая из них позволяет сэкономить время и деньги по сравнению с традиционным процессом создания системы видеонаблюдения. Эти причины вытекают их трех основных законов современных информационных технологий.
Закон Меткалфа приписываемый создателю Ethernet и основателю компании 3COM, устанавливает, что ценность сети пропорциональна квадрату числа ее узлов. Вследствие этого по мере расширения сети видеонаблюдения ценность нахождения в ней растет квадратично, тогда как удельные затраты на одного пользователя остаются неизменными или даже снижаются.
Закон Мура гласит, что вычислительная мощь микропроцессоров и плотность микросхем памяти удваиваются примерно каждые 18 месяцев. Это обещает прекрасные перспективы в плане увеличения мощности обработки данных при постоянном снижении цены оборудования. Так, для основной массы локальных сетей Fast Ethernet стоимость одного порта в 2005 году не превышала 30 долларов, соотношение "цена/производительность" IP-маршрутизаторов постоянно улучшается, стоимость хранения информации на жестком диске стала меньше 1 доллар за гигабайт. Суть закона фотона, являющегося телекоммуникационным эквивалентом закона Мура, состоит в том, что хорошие инженеры с каждым годом должны "проталкивать" сквозь стекловолокно все большее количество фотонов.
Закон фотона работает даже эффективнее, чем закон Мура: он утверждает, что пропускную способность волоконно-оптического канала передачи информации можно удваивать примерно каждые 10 месяцев. Стоимость оптоволоконного кабеля пересекла важный с психологической точки зрения порог 1 доллар за метр, а его пропускная способность при использовании мультиплексирования по длине волны достигает астрономического значения 40 Тбит/с в одном световоде.
Эти три закона дают всем нам новые возможности, которыми обязательно следует воспользоваться. А для этого нужно правильно интерпретировать последние технологические тенденции.
Самой сильной тенденцией сейчас является интеграция вычислений и коммуникаций. Очень интересны в этом отношении видеосерверы, сочетающие в себе сетевую аппаратуру и устройства цифрового сжатия видеопотока.
Основные положения цифровой компрессии видеосигналов
Определим понятия стандарта и кодека видеосигнала. Стандарт описывает группу технических приемов, которые могут использоваться при сжатии (например, кодирование с предсказанием, компенсация движения), и допустимые параметры цифрового потока (разрешение, скорость передачи, частота кадров и т.д.). По мере совершенствования методик сжатия, увеличения быстродействия компьютеров и возможностей аппаратных средств вынужден развиваться и стандарт. Кодек – это аппаратный или программный метод преобразования информации, позволяющий на выходе получить цифровой поток, соответствующий стандарту. Кодеки, в свою очередь, делятся на кодеки с покадровым сжатием и кодеки с межкадровым сжатием.
В кодеках с покадровым сжатием каждый кадр записывается как отдельная фотография. К таким кодекам относятся кодеки группы MJPEG (Motion JPEG), широко используемые в цифровых рекордерах видеосигналов. К кодекам с межкадровым сжатием в первую очередь относятся кодеки стандартов MPEG. В кодеках с межкадровым сжатием только часть кадров (так называемые I-frame или ключевые кадры) содержит полную информацию об изображении. Остальные кадры (промежуточные кадры, P-frame) содержат только отличия этого кадра от предыдущего. Иногда применяют двунаправленные кадры (B-frame), информация в которых кодируется на основании предыдущего и последующего кадров, что позволяет дополнительно повысить степень сжатия видео. Последовательность между двумя ключевыми кадрами называется группой кадров (GOP, Group Of Pictures).
Межкадровое сжатие позволяет дополнительно сократить количество бит, необходимых для кодирования 1 секунды видеосигнала (битрейт) в несколько раз при сохранении качества. Особенностью кодеков с межкадровым сжатием является зависимость битрейта или качества видео от "динамичности" сцены. Например, при кодировании с постоянным битрейтом (CBR, Constant Bit Rate) статичные сцены, где соседние кадры мало отличаются друг от друга, будут смотреться лучше, чем динамичные. При кодировании с переменным битрейтом (VBR, Variable Bit Rate) кодек будет автоматически увеличивать битрейт на динамичных сценах, чтобы обеспечить примерно одинаковое качество изображения для статичных и подвижных объектов.
Процесс разработки стандартов компрессии видеосигналов идет под руководством двух организаций: ISO (International Standards Organization) и ITU (International Telecommunications Union). Большинство этих стандартов базируется на документах H.261 и Н.263, разработанных ITU около десяти лет тому назад. Параллельно с этими работами группа экспертов ISO Motion Picture Experts Group (MPEG) представила стандарт MPEG-1, предназначенный для использования в сфере персональных компьютеров и компакт-дисков (скорость передачи данных – до 1,5 Мбит/c).
Следующий за ним стандарт MPEG-2 предназначен для сферы вещания, в которой применяются изображения высокого разрешения и скорость одного видеопотока достигает 10 Мбит/с. В дополнение к кодированию видео стандарт MPEG-2 включает в себя кодирование звука и транспортный уровень для передачи нескольких программ и является основным для вещательного телевидения. Высокое качество изображений обуславливает использование MPEG-2 в охранном телевидении для решений класса hiend.
Стандарт сжатия MPEG-2 основан на удалении избыточной информации. Для этого используются такие процессы, как дискретно-косинусное преобразование (DCT), предсказание движения, квантизация и статистическое кодирование.
Уменьшение скорости потока при сохранении высокого качества видео обеспечивают и дополнительные технологии – предварительная обработка, шумопонижение и коррекция ошибок за счет предсказания и двойного прохода, а также последующая обработка.
Следует отметить, что к настоящему времени стандарт MPEG-2 практически достиг своего предела в плане степени сжатия и не позволяет обеспечить качественную передачу видео на скоростях менее 1 Мбит/с. Поэтому возникла необходимость разработки более эффективных, чем MPEG-2, алгоритмов компрессии. Та же группа экспертов ISO разработала новый стандарт – MPEG-4 с более чем двукратным повышением эффективности сжатия.
Добиться такого результата удалось за счет принципиально иного, так называемого объектно-ориентированного метода компрессии с оригинальным алгоритмом:
* в исходной аудиовизуальной сценевыделяются так называемые "медийные объекты" (статический фон,крупные фигуры, аудио, текст, графика и т.д);
* для каждого медийного объекта формируется собственный цифровой поток, затем они суммируются и передаются по каналу связи в едином потоке;
* на приемной стороне исходный аудиовизуальный образ собирается в обратном порядке.
Первоначально MPEG-4 разрабатывался как формат для передачи мультимедийного контента по узкополосным линиям связи. Поэтому основным профилем MPEG_4 для видео был простой профиль SP (Simple Profile), предназначенный для работы с разрешением до 352х288 пикселей при битрейте до 384 кбит/с (15 кадров в секунду). Однако в процессе работы выяснилось, что данный алгоритм прекрасно работает и с видеосигналами с разрешением 720х576 пикселей, требуя при этом в 2-3 раза меньших скоростей, чем MPEG-2.
Поэтому в 2002 году был принят расширенный стандарт MPEG-4, названный Advanced Simple Profile (то есть простой, но продвинутый).
Теперь MPEG-4 мог работать со стандартными видеосигналами со скоростями до 8 Мбит/с в устройствах с высоким качеством изображения. Однако официальное включение спецификации MPEG-4 в базовый стандарт ITU-T-H.264 произошло только через год.
MPEG-4 может быть использован для достижения разных целей и включает в себя различные инструменты для кодирования. Например, инструменты для создания потокового видео с очень низким битрейтом отличаются от тех, что используются при кодировании видеосигнала с DVD-качеством.
Чтобы обеспечить эти потребности MPEG-4, стандарт определяет множество различных профилей и уровней (Profiles and Levels). Каждый профиль или уровень – это уровень совместимости, обеспечивающий слаженную работу продуктов, соответствующих ему.
Эти уровни стандартизуют не только инструменты, которые могут быть использованы при кодировании, но и за дают параметры видео: ограничение битрейта, размер изображения, частота смены кадров и т.д.
Наибольший интерес для охранного ТВ представляют следующие профили MPEG-4:
* профиль ASP (Advanced Simple Profile), ISO 14496-2;
* профиль AVC (Advanced Video Coding), ISO 14496-10.
Продвинутый простой профиль с уровнем 5 (ASP@L5) допускает размер изображения до 720x576 пикселей, обеспечивает 30 кадров в cекунду и предлагает такие инструменты, как B-Frames (B_VOPS), Quarter Pixel Motion Search Precision (QPEL), Global Motion Compensation (GMC) и MPEG/Custom Quantization, не доступные в SP.
Рассмотрим самые важные инструменты, доступные в ASP (не могут использоваться в SP).
B_Frames/B_VOPS/Bi_directional encoding: B_кадры/двунаправленное кодирование
В отличие от I-кадров, которые содержат все изображение и не зависят от других кадров, и P-кадров, которые содержат только измененные части изображения из предыдущего I- или P-кадра, B-кадры используют информацию, содержащуюся в предыдущем или следующем I- или P-кадре. Поэтому B- кадры могут быть сжаты гораздо сильнее, чем другие типы кадров.
Quarter Pixel Motion Search Precision (QPEL): четверть пиксельная точность определения движения
MPEG-4 кодеки с ASP обнаруживают движение между двумя кадрами с точностью в четверть элемента разложения, что приводит к повышению общей четкости изображения.
Global Motion Compensation (GMC): глобальная компенсация перемещения
GMC определяет, насколько сходны параметры передвижений больших частей кадра. Если направления движений совпадают, GMC начинает действовать и для всех подобных частей применяет один вектор взамен нескольких. На практике это помогает снизить цифровой поток от сканирующих камер с трансфокаторами.
MPEG/Custom Quantization: MPEG/индивидуальная квантизация
В то время как SP-профиль MPEG-4 предполагает использование только квантизации в соответствии с документом Н.263, ASP также допускает использование квантизации индивидуальных типов.
AVC/H.264 – это часть MPEG-4 стандарта, определяющая один из самых современных форматов кодирования.
AVC/H.264 определяет три разных профиля – базовый, основной и расширенный, из которых только основной поддерживает чересстрочное изображение и предлагает I-, P- и B-кадры. Наиболее важные отличия MPEG-4 AVC становятся понятными при детальном рассмотрении его основных инструментов.
Во-первых, подчеркнем переменные размеры блока (Variable Block Sizes). В отличие от ASP, где размеры блоков могут быть 16x16 и 8x8 пикселей, AVC предлагает деление макроблоков до 4x4 пикселей. Размер блоков адаптивен и переменен, хороший кодировщик способен выбрать наиболее эффективный размер каждого конкретного макроблока.
Изменилась и улучшилась структура традиционного макроблока: теперь применяется гибкое адаптивное кодирование. В стандарте нашли применение улучшенные технологии предсказания движения, что позволяет, в отличие от ASP, использовать кадры с многократной ссылкой (Multiple Reference Frames) – кодек при обработке изображения может опираться как на предыдущий кадр, так и на кадр, стоящий еще раньше.
Добавлена также встроенная Loop-фильтрация – в отличие от предфильтрации или постобработки, она применяется для каждого кадра, после того как он был скодирован, но до того как он будет использован для кодирования последующих кадров. Это помогает избежать артефактов, особенно при низких битрейтах. Подчеркнем, что инструменты MPEG_4 AVC требуют повышенных вычислительных ресурсов при реализации того или иного кодека, работающего в этом стандарте. Это приводит на практике к увеличению времени кодирования или декодирования.
Результаты экпериментов
Широкие возможности MPEG-4 и успехи в аппаратной реализации этого алгоритма во многом способствовали эйфории у разработчиков и потребителей устройств цифрового кодирования видеосигналов. Наклейка с надписью "MPEG-4" стала признаком хорошего тона – ее можно увидеть на цифровых фотоаппаратах, видеокамерах, цифровых рекордерах. Подчеркнем еще раз – само по себе это сочетание букв ничего не значит – слишком много профилей и уровней существует внутри этого стандарта кодирования. Поэтому каждый разработчик решает сам – какой именно профиль MPEG-4 ему использовать и какими инструментами пользоваться внутри этого профиля. В результате утверждение "DVD-качество" становится весьма относительным – как правило, оно дается на основании субъективного восприятия изображения. Исследуя аппаратуру различных производителей, мы не раз сталкивались с ситуацией, когда на самом деле в ней был реализован SP-профиль с некоторыми ASP-инструментами, т.е. до истинного DVD-качества было весьма далеко.
Именно поэтому в последнее время производители сетевого видеооборудования стараются не забывать старый добрый M-JPEG и рекомендуют именно его использовать для цифровой видеозаписи, оставивMPEG-4 "живое" видеонаблюдение. Но обсуждать достоинства и недостатки того или иного кодека мы сейчас не будем – просто покажем на практике возможности MPEG-4 при сетевом видеонаблюдении.
Для экспериментов мы использовали оборудование МР-Х компании Teleste. В состав линейки входят двухканальные кодеры MPC-Е2, поддерживающие только SP- профиль, восьмиканальные кодеры МРХ-Е8, поддерживающие SP- и ASP-профили, а также восьмиканальный декодер MPX D8, также поддерживающий SP- и ASP-профили. Все оборудование, помимо передачи видеоинформации, поддерживает двунаправленную передачу одного стереоаудиосигнала и нескольких каналов RS-данных. В зависимости от модификации, блоки имеют многомодовый или одномодовый Ethernet_выход, обеспечивающий дальность передачи от 2 до 100 км.
Поддерживаемое разрешение – 176х144 (QCIF), 352x288 (CIF), 704x288 (2CIF), 704x576 (4CIF) и 720х576 (PAL D1) пикселей при частоте кадров от 1 до 25 кадров в секунду и битрейте от 9,6 кбит/c до 4 Мбит/с.
Для обеспечения гибкости при эксперименте и создания максимальной нагрузки на локальную сеть нами был использован восьмиканальный кодер.
Аппаратные ресурсы этого блока включают в себя четыре медийных процессора, между которыми могут динамично перераспределяться решаемые задачи.
Например, возможна организация четырех каналов с битрейтом 4-6 Мбит/c, поддерживающих разрешение 4CIF. Если снизить требования к качеству передаваемого изображения до 2 CIF, число каналов можно увеличить до восьми при одновременном снижении битрейта до 1-2Мбит/c.
При разработке кодека разработчики уделяют большое внимание достижению компромисса между задержкой (чем выше профиль и уровень MPEG-4, тем больше задержка на вычисления), ценой DSP-процессора и его тепловыделением. Эта задача в тестируемой аппаратуре была успешно решена, что обеспечило низкую задержку(менее 100 мс) при малой стоимости блока и пассивном охлаждении. Подчеркнем, что все кодеки МР-Х поддерживают протоколы RTP, UTP и IP, что обеспечивает их работу в режимах как одноабонентской, так и многоабонентской адресации в сетях TCP/IP. Это приводит к значительному снижению суммарного трафика при решении ряда прикладных задач.
Один и тот же кодер может одновременно создавать от одной камеры два видеопотока с разным разрешением и битрейтом. Для задач мониторинга может быть использовано изображение с DVD_качеством при битрейте до 4 Мбит/c, а для регистрации – изображение с разрешением CIF или 2 CIF с пониженной частотой кадров. При этом DVD-поток будет возникать в сети только в моменты непосредственного обращения оператора к конкретной ТВ-камере.
Возможности аппаратуры МР-Х были проверены нами на практике. Использовались 8-канальный аппаратный кодер и программный клиент просмотра. В ходе эксперимента к каждому из медийных процессоров блока была подключена монохроматическая ТВ-камера высокого разрешения и для всех каналов видео было организовано по два потока с различным качеством. Первый поток предназначался для просмотра операторам (скорость цифрового потока – 4 Мбит/с, разрешение – 4 CIF, частота кадров – 25 кадров в секунду), а второй – для записи на сетевой видеорегистратор (скорость цифрового потока – 512 кбит/с, разрешение – 5 CIF, частота кадров – 25 кадров в секунду). Для передачи изображения использовалась офисная локальная сеть Fast Ethernet.
Качество транслируемого по сети изображения показано на рис. 3 и 4. При этом загрузка локальной сети не превышала 30% при просмотре восьми камер с качеством изображения, близким к DVD и многоабонентской адресации. Подчеркнем, что загрузка сети в этом случае практически не зависит от числа операторов в этой сети (числа активных рабочих станций просмотра).
Снизив частоту кадров, можно значительно уменьшить нагрузку на сеть. Так, при лимите скорости цифрового потока 512 кбит/c можно поддерживать качество 4 CIF уменьшением частоты кадров до 5 кадров в секунду.
Аппаратура других производителей близка по функциональным возможностям к рассмотренной. Отметим, что в настоящее время полностью преимущества MPEG-4 на практике не реализованы – никто пока еще не "прыгнул" выше MPEG-4 ASP@L5. Подождем, пока не сработает закон Мура и мощность микропроцессоров станет достаточной для реализации основного профиля AVC/H.264.
Но уже сейчас ничто не мешает нам использовать сетевое видео на базе волоконно-оптических каналов связи.