Процессор камеры видеонаблюдения обрабатывает сигнал, сформированный матрицей, сжимает его кодеком и передает его видеорегистратор или облачное хранилище.

Этот процесс выглядит следующим образом:

  1. На объектив камеры попадает изображение, которое усиливается благодаря светочувствительной линзе
  2. Усиленный сигнал передается на матрицу
  3. Световой поток преобразуется в электрический сигнал в ISP-процессоре
  4. Аналоговая информацией переводится в цифровые данные и передается в процессор сжатия видео
  5. Благодаря компрессионному блоку обеспечивается форматирование изображения или видео, готовится сетевая передача
  6. Сжатый видеосигнал выводится при помощи центрального SoC-процессора
  7. Через ОЗУ и флеш-память можно хранить резервные копии, допускается буферизация и временное хранение полученных данных.
  8. На завершающей стадии через сетевой интерфейс производится пакетная передача данных в локальную сеть (для IP-камер) либо потоковая передача данных (для HD-SDI или EX-SDI камер), либо видеосигнал из цифрового преобразуется обратно в аналоговый (для старых аналоговых CVBS камер либо новых HD-CVI, HD-TVI и AHD камер)

Основные ключевые характеристики и функционал процессоров для камер наблюдения — это FPS (frame per second, Frame rate, Frame frequency — «кадры в секунду», «кадровая частота») или скорость видеоввода.

Это количество сменяемых кадров за единицу времени (сколько раз будет «считано» изображение с матрицы за секунду).

Общепринятая единица измерения — кадры в секунду. Чем больше fps — тем более «плавным» будет видео. Но при этом увеличится битрейт (о котором ниже) — что может потребовать больших затрат на создание локальной сети передачи данных, а также на обработку потока сервером и архивирование записи.

Высокая скорость видеоввода равная 25 или 30 к/с обычно необходима на объектах, где требуется ситуационное видеонаблюдения в режиме реального времени.

Это могут быть места с большим скоплением людей и интенсивным движением, такие как вокзалы, аэропорты, крупные супермаркеты.

Высокая FPS может потребоваться для распознавания автомобильных номеров на автотрассе (при скоростях движения авто до 150 — 250 км/ч).

Также это может быть технологическое видеонаблюдение на каком-то сложном производстве, где важен каждый кадр технологического процесса.

Видеонаблюдение со скоростью 12 к/с может быть использовано в местах, где интенсивность движения средняя и присутствует небольшое количество двигающихся объектов.

Например, офисные помещения, маленькие магазины и т.п. Как правило скорость отображения в 12 к/с вполне приемлема для наблюдения за движущимися объектами. И реальной необходимости в «живом видео» в данном случае нет.

Скорость в 6 к/с логично использовать на объектах, где сравнительно низкая интенсивность движения. Примеры таких объектов это: автостоянки, парковки, офисы.

Также логично использовать скорость в 6 к/с при распознавании автомобильных номеров на парковке и въезде в парковку.

FPS 60 к/с необходимо лишь при наблюдении за быстрым процессом. При FPS 60 к/с нужно уже внимательно смотреть на время экспозиции (оно может быть больше 16 мс с которой сменяются кадры).

А это приводит к снижению светочувствительности, что сильно повышает требования к уровню освещенности. Кроме того, не всякий процессор вытянет одновременно высокий FPS и высокое разрешение — так что приходится выбирать.

Да и о таких функциях, как WDR — с FPS 60 к/с приходится забыть — ведь при аппаратной реализации используется двойное сканирование матрицы с разной выдержкой.

Рассмотрим основные параметры видеоизображения, которые обрабатывает процессор камеры наблюдения.

Уровень видеосигнала (IRE)

IRE является единицей, используемой при измерении полных видеосигналов composite video. Его название происходит от инициалов Institute of Radio Engineers.

Значение 100 IRE в видеосигнале, первоначально определено, как диапазон активного видеосигнала (от черного до белого). Значение 0 IRE соответствует значению напряжения сигнала в течение периода обратного хода луча.

Импульс синхронизации в PAL/SECAM — 43 IRE ниже этого значения 0 IRE, поэтому общий диапазон покрытия всего белого сигнала будет 143 IRE.

Значения IRE представляют собой относительное измерение (в процентах), так как видеосигнал может быть любой амплитудой.

Чувствительность illumination     Уровень
Полноформатное видео        Full video     100 IRE
Полезное видео        Usable picture     50 IRE
Мин. освещённость       Minimum Illumination     30 IRE

Как правило, IRE используется для обозначения условий измерений уровня чувствительности видеокамеры.

АРУ (Automatic gain control AGC)

Автоматическая регулировка усиления (АРУ или AGC) служит для поддержания максимального уровня видеосигнала на выходе камеры в пределах 0,7 В.

Автоматическая регулировка усиления (АРУ) характеризуется глубиной АРУ и выражается в децибелах. Глубина АРУ у различных видеокамер может быть от 12 дБ до 30 дБ.

Чтобы можно было записать изображение при низкой освещенности, не изменяя при этом значение выдержки или глубину резкости, используется электронное усиление слабого сигнала датчика, и это позволяет получить более яркое изображение.

Побочный эффект такого подхода заключается в том, что крошечные несовершенства картинки также усиливаются и воспроизводятся на изображении как помехи. Такие помехи ухудшают качество изображения и обычно приводят к увеличению трафика для передачи видеопотока.

Сигнал / шум (S/N Ratio, SIgnal/NoIse)

Отношение сигнал/шум (Signal-to-noise ratio SNR) — это отношение максимального уровня сигнала (уровень белого) к уровню шума матрицы и остальных электронных компонентов видеокамеры.

Отношение сигнал/шум характеризует «количество» шума, присутствующего в видеосигнале. Связано это с тем, что максимальный уровень сигнала в видеокамере имеет постоянную величину, поддерживаемую системой АРУ и имеющую значение 0,7 В, а собственные шумы могут иметь различные значения, в зависимости от используемой камеры.

Чем больше отношение сигнал/шум, тем меньше шума присутствует в видеосигнале и тем лучше изображение на мониторе. Чем меньше формат матрицы, тем выше ее шумы и (следовательно) ниже чувствительность.

По рекомендациям CCIR (The International Radio Consultative Committee), существуют пять градаций качества в зависимости от отношения сигнал/шум.

Градации качества     Отношение с/ш (дБ)
Отлично              Более 48
Хорошо                   42
Посредственно                   38
Плохо                   34
Очень плохо             Менее 30

Нормальным считается отношение сигнал/шум 45 дБ. У камер высокого класса это отношение достигает 58 дБ.

Чувствительность

Часто в Datasheet камер указывают параметр чувствительности, единицы измерения — Лк (люкс). Имеется в виду минимальная освещенность сцены, при которой камера ещё формирует контрастную сцену.

Использовать в проектных расчётах значения чувствительности камеры (люкс) можно, только если известны:

1. Значения параметров камеры, при которых получается указанное значение:

  • диафрагма (F) объектива, т.е. одинаковое раскрытие относительного отверстия объектива;
  • время экспозиции, т.е. того времени, за которое матрица камеры будет формировать изображение, накапливая свет;
  • коэффициент отражения сцены (сколько света отразится от объектов сцены и, соответственно, попадёт на матрицу)

Самое неприятное, что часто п.1-2, при которых проводят замеры освещенности — не совпадают с характеристиками камеры, для которой они указаны (часто F-число у камеры больше, чем при замере Лк)

2. Параметры получаемого изображения:

  • IRE видеосигнала, т.е. уровня сигнала при данной освещённости
  • отношение сигнал/шум изображения при минимальной освещённости (согласно CEA 639 граничным значением при определении минимальной освещённости является отношение сигнал/шум = 17дБ (7 раз по напряжению))

Функции обработки

Рассмотрим стандартный функционал, который обеспечивает современный процессор камеры. Производительность современных процессоров на столько высока, что с лихвой закрывает ключевые функции — забрать сигнал с матрицы, сжать его кодеком и передать в линию связи.

Избыточную производительность «утилизируют» функциями обработки изображения, в том числе модными сегодня «видеоаналитическими» функциями «на борту камеры».

BLC, HLC, WDR

Перечисленные функции преследует цель обработать сигнал процессором камеры таким образом, чтобы «улучшить» изображение.

BLC (Back Light Compensation) — функция помогает получить нормальную детализацию картинки в условиях засвеченного заднего фона.

Когда объект находится на переднем плане, а на заднем — источник яркого света, то мы видим объект только в виде силуэта.

BLC компенсирует встречную засветку путем выравнивания яркости изображения (фактически за счет экспонирования по части кадра, где располагается зона интереса Region of Interest — ROI), благодаря этой функции Вы сможете детально видеть темные объекты на фоне яркого света, например света фонаря, окна и т.д.

HLC (Highlight Compensation) — функция для компенсации яркой засветки. из расчета средней яркости изображения происходит маскировка источника яркого света, позволяя рассмотреть темные участки. Фактически происходит экспокоррекция (Exposure Compensation).

WDR (Wide Dynamic Range – широкий динамический диапазон) – это технология, позволяющая получать высокое качество изображений при значительном перепаде уровней освещённости.

Показатель WDR измеряется в децибелах (дБ). Он рассчитывается как отношение светимостей самого яркого и самого тусклого объекта, которые были захвачены видеокамерой.

Наиболее распространённый метод получения широкого динамического диапазона базируется на матрицах Double Scan или QuadroScan.

Для каждого кадра матрица делает два или четыре сканирования с разной выдержкой электронного затвора и формирует предварительные изображения — одно с длинной выдержкой для осветления всех тёмных частей кадра, другое с короткой выдержкой с более корректным отображением переосвещённых участков.

После этого фрагменты с лучшей передачей контраста суммируются в результирующий кадр, сбалансированный по яркости.

Очевидный недостаток WDR — длительное время экспозиции за счет нескольких сканирований матрицы, что может давать «смаз» от быстро движущихся целей наблюдения.

Как правило любые «улучшители» изображения требуется отключать при использовании алгоритмов видеоаналитики.

AIS, OIS, EIS

Перечисленные функции преследует цель обработать сигнал процессором камеры таким образом, чтобы «улучшить» изображение при вибрации камеры.

Стабилизация изображения на базе искусственного интеллекта (AIS)

Технология стабилизации изображения на базе искусственного интеллекта позволяет снимать фото или видео с длинной выдержкой, особенно при низком освещении, при этом изображение получается четким и детальным без размытия.

Оптическая стабилизация изображения (OIS)

Технология оптической стабилизации изображения обеспечивается работой специальных механизмов, которые стабилизируют процесс фотосъемки, определяя движение камеры и в соответствии с этим перемещая объектив.

Электронная стабилизация изображения (EIS)

Электронная стабилизация изображения осуществляется с помощью анализа изображения примерно 2/3 области в датчике изображения и последующего использования изображений по краям для компенсации движения камеры. Такая стабилизация используется в большинстве камер.

Lightfinder / Darkfighter / Starlight (серии камер ColorVu, AcuSense, WizSense)

Технологии, позволяющие получать цветные изображения при низкой освещенности сцены (камера не переходит в режим «ночь», не «откидывает» инфракрасный режекторный фильтр).

Основной механизм работы — выбор светочувствительных крупных матриц, качественной оптики высокого разрешения и фирменных алгоритмов обработки изображения процессором камеры.

АРУ (Automatic gain control AGC)

Автоматическая регулировка усиления (АРУ или AGC — Automatic Gain Control) служит для поддержания максимального уровня видеосигнала на выходе камеры в пределах 0,7 В.

Автоматическая регулировка усиления (АРУ) характеризуется глубиной АРУ и выражается в децибелах. Глубина АРУ у различных видеокамер может быть от 12 дБ до 30 дБ.

Чтобы можно было записать изображение при низкой освещенности, не изменяя при этом значение выдержки или глубину резкости, используется электронное усиление слабого сигнала датчика, и это позволяет получить более яркое изображение.

Побочный эффект такого подхода заключается в том, что крошечные несовершенства картинки также усиливаются и воспроизводятся на изображении как помехи. Такие помехи ухудшают качество изображения и обычно приводят к увеличению трафика для передачи видеопотока.

Чем значение AGC выше, тем больше в кадре появляется шумов, но при этом изображение будет более яркое.


Автоматическая регулировка освещенности (Automatic light control ALC)

Automatic light control (ALC) — помогает оптимизировать работу диафрагмы в сценах с высокой контрастностью. При условии, что видеокамера оснащена объективом с автодиафрагмой.

Существует определенное значение освещенности, при котором весь динамический диапазон светочувствительности матрицы используется максимально.

Для того чтобы при любом освещении получать высококачественные снимки, в камерах используют автоматическую регулировку освещенности. Регулировка освещенности основывается на измерении яркости света и вычислении его среднего для кадра значения.

Регулировка изображения

Регулировка насыщенности цвета, яркости (Brightness), четкости (Sharpness), контраста (Contrast), локального контраста.

Яркость, контраст и резкость

  • Brightness (яркость) — чем больше значение, тем выше яркость. Например, если IP-камера направлена на яркий источник света и изображение выглядит слишком темным, можно увеличить яркость.
  • Contrast (контраст) —  чем больше значение, тем выше контрастность.
  • Sharpness (резкость) — чем больше значение, тем выше резкость.

Режим автоматической регулировки яркости и контраста, как правило, активирован по умолчанию. Но при необходимости яркость, контраст и резкость настраиваются в ручную через web-интерфейс камеры или osd-меню.

Автофокусировка изображения — также распространённая функция в современных камерах видеонаблюдения.

Баланс белого

Видеокамеры имеют несколько режимов регулировки баланса белого цвета:

  • ATW — автоматическая настройка баланса белого в пределах температуры цвета в пределах 1800°K ~10500°K.
  • AWC – автоматическое слежение за балансом белого, когда камера автоматически подстраивает баланс белого исходя из меняющейся обстановки и освещенности.
  • MANUAL – режим ручных настроек. Нужен в том случае, если в автоматическом режиме неверно отображаются цвета. Благодаря этой настройке можно вручную установить уровень красного и синего цветов с помощью ползунков.
  • AWCSET — адаптационные настройки баланса белого. В целях получения оптимальных настроек следует навести камеру на белый лист бумаги и нажать кнопку ENTER. В случае изменения параметров освещения(например, замены ламп накаливания на флуоресцентные) процедуру необходимо будет повторять.
  • INDOOR (внутри помещения) – если камера установлена внутри помещения, можно использовать этот режим, задающий баланс белого для цветовой температуры, лежащей в пределах 4500°K~8500°K.
  • OUTDOOR (вне помещения) – автоматическая настройка баланса белого в пределах температуры цвета 1800°K~10500°K. – в таком температурном диапазоне находится солнечный свет в течение суток. Установка баланса белого в режим OUTDOOR часто дает правильную цветопередачу при применении камеры на улице.

Антитуман (Defogging)

Функция «Defog» (антитуман) повышает контрастность изображения, что позволяет повысить видимость объектов в  сложных погодных условиях, таких как туман , смог, пыль или дым.

Функция антитуман хорошо показала себя в тех условиях, когда камеры значительно теряют в эффективности: в тумане, когда находящееся уже в 3-5 метрах становится менее четким, при дожде, снегопаде, пыльной бури.

Функция «Антитуман» реализована за счёт обработки изображения в процессоре. При этом могут использоваться несколько разных методов.

  • Выравнивание общей гистограммы кадра, на которой отображается относительное количество точек с различными оттенками серого. В ходе автоматической обработки кадра производится растягивание такой гистограммы на весь диапазон оттенков серого, что повышает контрастность изображения.
  • Локальное выравнивание гистограммы, при котором кадр разбивается на участки. Для каждого из них данная процедура производится отдельно. Применяются и другие методы очистки изображения от тумана. Некоторые из них основаны на подборе функции, приближённо описывающей воздействие частиц тумана на интенсивность проходящего через них света.

Anti-flicker

Устранение мерцания от ламп дневного света и т.д.

Цифровое подавление шумов (2DNR и 3DNR)

Digital Noise Reduction — цифровое подавление шумов.

Во многих современных камерах есть функция DNR (Digital Noise Reduction) — система шумоподавления в цветном изображении при низкой освещенности. Названий этой функции много, зависит от производителя чипа или камеры. Наиболее распространенные: 3D-DNR (3 Demension Signal Noise Reduction), SSNR (Samsung Signal Noise Reduction), 2DNR.

  • При выключенном режиме DNR изображение «покрыто» разноцветными шумами, что резко увеличивает объем записи.
  • 2DNR и 3DNR отличаются способом обработки сигнала и соответственно качеством получаемого результата.
  • 3DNR анализирует различия между кадрами, чтобы скорректировать пиксели и улучшить качество. Как правило, 3DNR лучше подавляет шум, чем 2DNR, но при этом движущиеся объекты могут выглядеть размытыми. Технология 3DNR используется в статических областях области обзора.
  • 2DNR предполагает обработку отдельных кадров видеоизображения, анализируя и исправляя пиксели, которые с большой вероятностью представляют собой шум. 2DNR демонстрирует хороший результат применительно к движущимся объектам, этот алгоритм используется в частях кадра, где присутствует движение. В режиме 2D-NR изображение сглаживается, что делает его более читабельным и значительно сокращает объем записываемых регистратором данных. Степень сглаживания регулируется видеопроцессором.

Стабилизация изображения (Electronic Image Stabilization EIS)

Electronic Image Stabilization (EIS) или Digital Image Stabilization (DIS) — электронная стабилизация изображения.

Система электронной стабилизации изображения (EIS) обеспечивает четкость видео в ситуациях, когда камера подвержена вибрации.

EIS минимизирует размывание — компенсирует дрожание изображения при тряске от ветра или проезжающих мимо машин, из-за чего изображение и становится размытым.

При этом виде стабилизации примерно 40 % пикселей на матрице отводится на стабилизацию изображения и не участвует в формировании картинки.

При дрожании видеокамеры картинка «плавает» по матрице, а процессор фиксирует эти колебания и вносит коррекцию, используя резервные пиксели для компенсации дрожания картинки.

«Коридорный» формат (Corridor Format)

«Коридорный» формат (режим) — это всего-лишь «повернутое» на 90° изображение (9:16; 3:4 и т.п.). Коридорный формат удобен для ряда локаций — просмотра длинных коридоров, периметра промышленного предприятия (забора) и др.

Для применения такого формата камера должна иметь возможность поворота объектива на 90° либо установки всей камеры «на боку». Процессор камеры должен уметь формировать поток, повернутый на 90° в обратную сторону.

Наложение текста и изображения (Text and image overlay)

В качестве накладываемого изображения может использоваться текст и/или статическое изображение (например логотип), которое располагается поверх основного видео.

Для камер с функциями видеоаналитики «на борту» — вывод результата работы аналитики (например наложение информации о номере авто, подсчете сотрудников / посетителей за выбранный период и др.).

При интеграции камеры с софтом VMS / PSIM — вывод любой другой информации (например при наличии интеграции с кассовыми терминалами — вывод текстовой информации кассового чека на видеоизображение).

Возможность исключить из обзора области, просмотр которых недопустим или нежелателен, особенно актуальна для PTZ-камер, принимая во внимание их способность давать подробное увеличенное изображение объектов, находящихся на большом расстоянии, и обширность охватываемой ими территории.

В PTZ-камере статическая маска закрытой зоны привязывается к системе координат камеры, благодаря чему она всегда скрывает одну и ту же область сцены, даже если поле зрения камеры изменяется в результате панорамирования, наклона или изменения фокусного расстояния.

Динамическое маскирование

Технология одного из вендоров IP-камер — Axis Live Privacy Shield сравнивает кадры видео для выделения фона и позволяет наложить детальную динамическую прозрачную маску на изменяемые области.

Другими словами, движущиеся люди и другие объекты представляются в виде прозрачных объектов поверх фона. Процесс выполняется мгновенно и эффективно исключает сбор личных данных.

Область интереса (Region of interest ROI)

Region of interest (ROI) — это “умная функция”, которая позволяет снимать разные части изображения с разным разрешением, GOP, FPS.

Например, при съемке участка дороги “в лоб”, нижняя половина (с автомобилями и дорогой) будет записана в максимальном качестве, другая часть изображения (небо, деревья) записывается с низким разрешением.

Фактически ROI — это часть технологии SMART-кодеков Zipstream, WiseStream, H.264+, H.265+.

Коррекция дисторсии (Lens Distortion Correction LDC)

Lens Distortion Correction (LDC) — это функция исправление искажений, вносимых широкоугольным объективом.

Для этого в ISP-процессоре камеры производится программная обработка изображения по определённому алгоритму, и его геометрия восстанавливается. В системе видеонаблюдения просматривается и записывается геометрически правильное изображение.

Видеоаналитика «на борту»

Сейчас мало кого удивишь встроенными модулями видеоаналитики «на борту» камеры видеонаблюдения. Даже бюджетные модели могут иметь стандартные аналитические функции:

  • пересечение линии
  • вторжение в зону
  • антисаботажные функции (изменение фона)
  • оставленные предметы
  • громкий звук
  • захват лица
  • подсчет посетителей
  • тепловая карта для определения мест с наибольшей и наименьшей активностью посетителей

Топовые процессоры камер позволяют решать куда более специфичные задачи анализа видео, даже такие «модные», как нейросетевые алгоритмы.

Примеры таких алгоритмов:

  • классификация по категориям «человек», «транспорт» или «другое»
  • определение количества людей в очереди и времени ожидания каждого человека
  • распознавание лиц
  • распознавание номеров авто

И в этой связи нельзя не упомянуть однокристальную систему HiSilicon Kirin 970, как один из первых чипов со специальным модулем поддержки нейронных сетей.

Сжатие и передача

Кроме обработки «сырой» картинки с матрицы — процессор должен ещё сжать полученные данные и передать их в линию связи (до видеорегистратора / коммутатора / сервера).

Кодеки

Одна из задач процессора — сжать полученные после обработки кадры — для уменьшения потока данных, передаваемых через сети связи на видеосервер или видеорегистратор. Для этого применяют стандартные кодеки. Кроме этого, у многих производителей есть дополнительные к кодекам технологии сжатия, основанные на области интереса в кадре (часть кадра является фоном, который не обязательно передавать в полном качестве).

Кодеки делятся на две основных категории:

  • внутрикадровые (покадровые)
  • межкадровые

Суть внутрикадровых кодеков сводится к сжатию отдельных кадров способ, аналогичным сжатию статичных картинок. Примером такого кодека является MJPEG (Motion JPEG). Фактически это последовательность изображений, сжатых стандартным кодеком JPEG.

Исторически первыми были именно внутрикадровые кодеки. Их главный недостаток — очень высокий поток, который формирует процессор, что затрудняет применение кодека для камер с матрицей высокого (мегапиксельного) разрешения. К достоинству можно отнести отсутствие проблем со «стоп кадром», характерных для межкадровых кодектов (о чем речь дальше).

Межкадровые кодеки основаны на идее передачи т.н. «опорных» кадров. Между опорными кадрами передается только информация о изменениях в кадре, но не весь кадр. Это существенно сокращает поток данных от камеры. Пример межкадровых кодеков — H.264 и H.265. Сейчас эти кодеки — наиболее распространенные.

Профили кодеков

H.264 и H.265 не совсем стандарт, а скорее набор рекомендаций для конкретной реализации кодеков. Профили кодеков определяют комплекты возможностей, ориентированные на конкретные классы приложений. Профили обеспечивают совместимость между устройствами, которые имеют разные возможности декодирования. Что касается профилей, кодер и декодер согласовывают набор функций, который они оба могут обрабатывать. Пример профилей:

  • Baseline Profile (Базовый профиль)
  • Main Profile (Основной профиль)
  • High Profile (Высокий профиль)

Zipstream, WiseStream, H.264+, H.265+ и др.

Это дополнительные к стандартным кодекам H.264 и H.265 технологии сжатия, основанные на:

  • динамическом выборе представляющих интерес областей Region of interest (ROI)
  • динамической регулировке периода следования опорных кадров Group of Pictures (GOP)
  • динамическом определении кадровой частоты frame per second (FPS)

Битрейт (bitrate) CBR / VBR

В работе процессора нам важны два факта — генерируемый им битрейт (для дальнейшего расчёта локальной сети, видеосерверов и систем хранения данных) и тип этого битрейта — постоянный или переменный (это влияет только на расчет локальной сети).

CBR (сокращение от «constant bit rate», в переводе — «постоянный поток данных») – означает, что камера выдаёт видеопоток одной и той же не зависящей от других параметров величины (по факту может колебаться в пределах ±10%).

Эта величина определяется в настройках камеры. По умолчанию разные производители для различных линеек камер ограничивают поток для CBR в районе 2-х, 3-х, 4-х Мбит/с.

Очевидно, удобен CBR тем, что под него легко посчитать требуемое дисковое пространство и подобрать коммутаторы. Подвох в том, что 10 к/с со средним размером кадра в 100 КБайт и 25 к/с со средним размером 40 Кбайт в итоге дают один и тот же поток.

Какой вариант больше устроит? Меньшая скорость с лучшим качеством или среднее качество «живого видео»?

Чтобы получить ответы, нужно обратить внимание на связанную с режимом CBR опцию задания пользователем приоритета (Priority). В итоге получим следующие сценарии работы:

  • приоритет скорости (speed или rate)
  • приоритет качества (quality)
  • приоритет одинаков (none)

CBR можно рекомендовать, прежде всего, при необходимости уложиться в твёрдо заданную и при том невысокую пропускную способность линии связи (когда перегружать канал нельзя ни в коем случае). Нередко применяется при работе в общей сети заказчика.

VBR (означает «variable bit rate», в переводе — «переменный поток данных») – другой подход к формированию выходного потока.

Работает так: в меню камеры задаётся конкретное значение качества изображения (степень сжатия), после чего поток генерируется «как есть», размером пропорционально сложности изображения.

Хорошая освещённость, малое движение, неподвижная камера – и исходящий поток не превышает мегабит-другой.

Если же ситуация начнёт меняться (пошли люди, поехали машины, замигали фонари или даже шум подрос из-за снижения освещённости) – видеопоток увеличится пропорционально, без «резки» скорости или качества.

VBR с ограничением «сверху» (особенно «продвинутые» его варианты типа Zipstream) — естественный выбор для задач наблюдения, не привязанных жёстко к пропускным способностям IP-каналов. Позволяет получить качественное изображение с заданным темпом, вне зависимости от условий эксплуатации.

Потоковая передача видео

Для аналогового видеонаблюдения все просто — мы или передаем весь генерируемый камерой поток данных, или нет. В IP все гораздо интереснее.

Мы разобрались с характеристиками битрейта — но при выборе процессора нас интересует сколько и каких битрейтов (потоков) процессор IP камеры может сгенерировать. Современные процессор IP-камеры, как правило, генерирует не менее 2 потоков:

  • основной
  • и дополнительный

Но потоков может быть и гораздо больше — и 3, и 4 потока. Для разных потоков могут быть установлены разные типы кодеков, настройки FPS и разрешения и многое другое.

Тип сетевого протокола

Как передавать поток данных через сеть — зависит от возможностей процессора камеры и выставленных настроек. Как правило используют:

  • TCP — устанавливает соединение между отправителем и получателем, следит за тем, чтобы все данные дошли до адресата без изменений и в нужной последовательности, также регулирует скорость передачи
  • UDP не устанавливает предварительного соединения, а вместо этого просто начинает передавать данные. UDP не следит чтобы данные были получены, и не дублирует их в случае потерь или ошибок
  • MUC (Multicast) отправляет в сеть один единственный поток данных, который затем дублируется маршрутизатором или коммутатором с функцией маршрутизации мультикаст-трафика

Как правило, процессор камеры передает поток по UDP, TCP почти не используется, а вот Multicast вполне может встречаться, но наличие поддержки Multicast нужно проверять в характеристиках камеры.

Стандарты

Можно разделить стандарты передачи данных на две большие группы:

  • цифровые
  • аналоговые

К аналоговым относятся:

  • т.н. «вещательный» стандарт CVBS (Color, Video, Blank, Sync) — это те самые старые стандарты PAL / NTSC, что можно встретить уже разве что в некоторых видеодомофонах
  • т.н. «новый аналог» — проприетарные стандарты высокой четкости HD-CVI, HD-TVI и AHD.

К цифровым относятся:

  • пакетная передача данных с применением стека протоколов TCP / IP
  • потоковая передача по стандартам цифрового вещательного телевидения HD-SDI и логическое развитие HD-SDI/3G-SDI — проприетарный EX-SDI

На текущий момент ниша крупных систем видеонаблюдения, а также систем видеонаблюдения, интегрированных с другими слаботочными системами — занята IP видеонаблюдением. Роль «нового аналога» — HD-CVI, HD-TVI и AHD — небольшие бюджетные решения с ограниченным функционалом. Остальные стандарты занимают ничтожную долю рынка.

Управление и интеграция

Говоря о стандартах, нельзя не упомянуть способы «состыковать» оборудование разных брендов между собой (например IP камеру с видеосервером) — в плане передачи настроек потоков и управления устройствами. Есть несколько таких вариантов, по-сути стандартов:

  • RTSP (Real Time Streaming Protocol)

RTSP — потоковый протокол реального времени, в котором описаны команды для управления видеопотоком. С помощью этих команд происходит трансляция видеопотока от источника к получателю. Например, от IP-камеры к видеорегистратору или серверу.

Что доступно при подключении по RTSP?

  • Передача видеоданных.
  • Прием и передача аудио данных.

Преимущество этого протокола передачи в том, что он не требует совместимости по версиям. На сегодняшний день RTSP поддерживают практически все IP-камеры и NVR.

Недостатки протокола в том, что кроме передачи видео- и аудиоданных больше ничего не доступно.

  • ONVIF (Open Network Video Interface Forum — Форум открытого сетевого видеоинтерфейса)

ONVIF — это отраслевая международная организация, основанная Axis, Bosch и Sony в 2008 году, которые разработали API-спецификации (Application Programming Interface) для интеграции продуктов безопасности между собой и объединили их в «профили», содержащие конкретные наборы функций.

В основе спецификация ONVIF лежат стандарты web-сервиса. Web-сервис – это стандартизированный метод для интегрированных приложений, использующий независимые стандарты открытых платформ, таких как XML, SOAP, SOAP 1.2 и WSDL (WSDL 1.1) на базе IP сети.

XML используется в качестве языка описания данных, SOAP применяется для передачи сообщений, а с помощью WSDL описываются непосредственно сервисы.

SOAP является протоколом на основе XML сообщений и предназначен для кодирования информации в запросе web приложения и в ответе, прежде чем информация будет передана по сети. SOAP считается комплексным, но в то же время более сложным в использовании.

Что доступно при подключении по ONVIF?

  • Обнаружение устройств.
  • Передача видеоданных.
  • Прием и передача аудио данных.
  • Управление поворотными камерами (PTZ).
  • Видеоаналитика (например обнаружение движения).

Эти параметры зависят от совместимости версий протокола ONVIF. В некоторых случаях часть параметров недоступна или работает некорректно. Смысл работы ONVIF в стандартизации базовых функций устройств видеонаблюдения, чтобы облегчить выбор конечному пользователю

  • PSIA (Physical Security Interoperability Alliance — Альянс за совместимость систем физической безопасности)

В сентябре 2008 г. PSIA выпустил свою первую спецификацию. Буквально на несколько месяцев позже PSIA. Хотя битва между ONVIF и PSIA за стандартизацию сетевых камер продолжается, при ближайшем рассмотрении можно увидеть, что оба стандарта похожи.

Оба предлагают общие требования к устройствам управления и контроля для совместимости разных продуктов. В каждой спецификации присутствуют механизмы и направляющие для поиска и управления устройствами, настройки сети, аналитики и PTZ-функциями, а также вещания видеопотока по HTTP/RTSP и безопасности.

PSIA использует архитектуру передачи состояния представления (representational state transfer, REST), которая является самым последним подходом, используемым сегодня практически во всех web-приложениях. REST проще в использовании по сравнению с SOAP и требует только простого XML-парсера с меньшей обработкой.

Для архитектуры REST нужно меньше ресурсов, чем для SOAP. Еще одним преимуществом REST является возможность чтения сообщений протокола, которые легко интегрируются в систему отладки.

Из-за высоких требований к вычислительным ресурсам и каналу передачи данных SOAP выглядит мене привлекательным для использования. Для SOAP нужны полностью совестимый HTTP-сервер, SSL и XML-парсер.

Например, для смены PTZ-позиции в ONVIF требуется SOAP-описание заголовка размером примерно 12 Кб. В PSIA же для изменения PTZ-позиции нужно всего лишь перейти по URL-адресу, что требует только нескольких байт.

Учитывая, что требования к сетевым камерам являются больше логическим стандартом, нежели физическим, не исключается вариант, что производитель применит к камере оба стандарта, или эти требования сольются в единое представление.

Подводя итог всему вышесказанному отметим, что выбирая процессор камеры — нужно четко понимать место камеры в вашей системе видеонаблюдения.

В каких условиях будет вестись съемка, нужна ли обработка видео для лучшего восприятия оператором для ситуационного наблюдения или будет применяться видеоаналитика, для которой любое вмешательство в изображение с матрицы — скорее вред?

Нужен ли вам функционал аналитики камеры «на борту» или обработка будет идти на стороне сервера? Сколько потоков с камеры и для каких задач вы будете забирать?

Умеет ли работать с такими потоками ваш софт? И как он будет управлять камерой — по API камеры (фактически с помощью драйвера в софте) или стандартными протоколами управления? И хватит ли вам функционала стандартных протоколов?

Современные камеры обладают мощными ISP-процессорами, которые позволяют осуществлять цифровую обработку изображения ДО того, как это изображение будет сжато, закодировано и передано в сеть.

Существуют как стандартные функции, о наличии которых можно вообще не задумываться (например яркость, контраст, резкость или баланс белого), так и весьма специфические, присущие отдельным вендорам и лишь в некоторых их линейках.

При выборе модели камеры следует учесть, что как правило любые «улучшители» изображения нужно отключать при использовании алгоритмов видеоаналитики.

Поэтому ещё на этапе планирования вы должны понимать как и для чего будет использована камера, в каких условиях она будет работать.

Это позволит игнорировать при выборе функционал, не применимый к конкретной задаче, при этом обращая внимания на действительно важные функции ISP-процессора камеры для целевой задачи наблюдения.

Главное, запомните следующие моменты.

На что влияет процессор IP-камеры?

  • Число и характеристики потоков
  • Функции обработки изображения с матрицы
  • Видеоаналитика «на борту»
  • Стандарты «управления» со сторонних устройств

Число и характеристики потоков

  • Как правило, не менее 2 (основной и дополнительный)
  • Максимальное разрешение и FPS
  • Битрейт и тип (CBR / VBR)
  • Кодеки и доп. сжатие
  • Тип сетевого протокола (UDP, Multicast, редко TCP)

Функции обработки изображения

  • АРУ (AGC)
  • BLC, HLC, WDR
  • AIS, OIS, EIS
  • Lightfinder / Darkfighter / Starlight / ColorVu

Видеоаналитика «на борту»

  • антисаботажные функции (изменение фона)
  • пересечение линии / вторжение в зону
  • оставленные предметы
  • нейросетевая (классификация «человек», «транспорт», распознавание лиц, номеров)

Стандарты «управления» со сторонних устройств

  • Onvif
  • PSIA
  • RTSP (только видео и звук)