Опубликован: 02.09.2013 | Доступ: свободный | Студентов: 429 / 54 | Длительность: 19:27:00

Лекция 1: Основные цветовые модели, представление изображения, базовые операции над изображениями

Лекция 1: 1234 || Лекция 2 >

Существуют и другие методы нахождения границ объектов на изображении. Пожалуй, наиболее популярным является метод Канни [4], реализацию которого можно найти в библиотеке OpenCV.

Кроме границ объектов в системах компьютерного зрения часто используются так называемые угловые точки, которые особенно важны для решения задачи слежения за объектом поскольку обладают свойством уникальности в некоторой окрестности.

Угловая точка на изображении определяется как точка, некоторая окрестность которой не похожа на окрестности, полученные сдвигом этой точки в любом направлении. На рисунке ниже проиллюстрировано, что в однородной области нет изменений в окрестности точки в любом направлении, если точка на ребре, то нет изменений вдоль ребра, если точка угловая, то сдвиг окрестности точки в любом направлении повлечет изменение.

Математически меру схожести окрестностей можно выразить формулой

S(x,y) = \sum_{u} \sum_{v}{(I(u,v) - I(u + x,v + y))^2

где x,y – сдвиг окрестности, u и v - координаты пиксела в окрестности.

Рассмотрим метод представленный в работе [5] для определения положения угловых точек, который реализован в библиотеке OpenCV.

Считая, что x и y малы можно записать

I(u + x,v + y) \approx I(u,v) + I_{x}(u,v)x + I_{y}(u,v)y

Тогда

S(x,y) = \sum_{u} \sum_{v} {(I_{x}(u,v)x + I_{y}(u,v)y)^2}

или S(x,y) \approx (x y)A(\frac{x}{y})

где A = \sum_{u} \sum_{v} {\begin{bmatrix} I_{x}^2 & I_{x}I_{y} \\ I_{x}I_{y} & I_{y}^2 \end{bmatrix}} = \begin{bmatrix} <I_{x}^2> & <I_{x}I_{y}> \\ <I_{x}I_{y}> & <I_{y}^2> \end{bmatrix}

в угловых скобках записаны суммы квадратов производных и произведение частных производных.

Известно, что если матрица А имеет большие собственные числа, то квадратичная функция S изменяется во всех направлениях, то есть удовлетворяет условию угловой точки.

Таким образом, алгоритм имеет следующий вид:

Для каждого пиксела вычисляется минимальное собственное число матрицы A

Находятся локальные максимумы в карте минимальных собственных чисел матрицы А, анализируя окрестность 3 на 3.

Если величина найденного локального максимума превышает заданный порог, то координата этой точки записывается в выходной массив угловых точек.

Часто из-за ошибок экспозиции или из-за погрешностей в освещении изображение получается малоконтрастным. Рассмотрим алгоритм улучшения контраста, основанный на нахождении минимального и максимального значений яркости на изображении. Пусть max – максимальное значение яркости, а min – минимальное. Тогда новое значение пиксела можно записать new = old * k + b, где k = 255/(max – min), b = -(min*255)/(max – min), old – старое значение пиксела. Применяя данное преобразование ко всем пикселам изображения, контраст повысится, так как минимальная яркость будет 0, максимальная 255, а остальные значения линейно масштабируются. Ниже изображено исходное изображение и результирующее изображение с повышенным контрастом.


Рис. 1.10.

Другой популярный алгоритм повышения контраста – это эквализация гистограммы. Он состоит из следующих шагов:

  1. Вычисляется гистограмма H для исходного изображения
  2. Значения бинов гистограммы нормализуются, так что их сумма равна 255
  3. Вычисляется интеграл гистограммы H'(i)=\sum_{0 \leqslant j \leqslant i}H(j).
  4. Полученная интегральная кривая используется в качестве интерполяционной кривой по формуле new(x,y)=H'(old(x,y)), где new(x,y) – новое значение пикселя в точке (x,y), old(x,y) – старое значение, H' – интегральная кривая.

Цветные изображения. Цветовые пространства

Если цветное изображение представить в виде трех одноканальных изображений, то для них применимы все рассмотренные методы обработки полутоновых изображений.

Следует отметить, что не все камеры формируют изображение в формате RGB, многие камеры видеонаблюдения вещают в формате YUV.

В этом формате яркостная составляющая Y выделена в отдельном канале. Две другие U и V несут цветовую информацию. Отметим, что человеческий глаз больше восприимчив к яркостной компоненте, поэтому основная обработка осуществляется для Y канала.

Переход из RGB в YUV и обратно осуществляется линейным преобразованием.

W_{R} = 0.299\;\;\;W_{B} = 0.114\;\;\;W_{G} = 1 - W_{R} - W_{B} = 0.587
Y' = W_{R}R + W_{G}G + W_{B}B
U = U_{Max}\frac{B - Y'}{1 - W_{B}}
V = V_{Max}\frac{R - Y'}{1 - W_{B}}

Обратное преобразование:

R = Y + V\frac{1 - W_{r}}{V_{Max}}
G = Y - U\frac{W_{B}(1 - W_{B})}{U_{Max}W_{G}} - V\frac{W_{R}(1-W_{R})}{V_{Max}W_{G}}
B = Y + U\frac{1 - W_{b}}{U_{Max}}

Существуют и другие удобные для анализа и обработки цветовые пространства, переход в которые из RGB может быть нелинейным. Например, рассмотрим пространство HSV, которое удобно тем, что его каналы имеют ясное семантическое значение: H – оттенок цвета (Hue), S – насыщенность цвета (Saturation), V – интенсивность цвета (Value). Таким образом, модифицируя канал S, мы можем управлять насыщенностью цветов на изображении.

Ниже представлены четыре изображения: первое – исходное RGB изображение, второе изображение, у которого в каждом пикселе повышена насыщенность S, третье – увеличена яркость (канал V), четвертое – модифицирован канал H, так что цвета поменяли оттенки.

Лекция 1: 1234 || Лекция 2 >
Андрей Терёхин
Андрей Терёхин

Нахожу в тесте вопросы, которые в принципе не освещаются в лекции. Нужно гуглить на других ресурсах, чтобы решить тест, или же он всё же должен испытывать знания, полученные в ходе лекции?

Демянчик Иван
Демянчик Иван

В главе 14 мы видим понятие фильтра, но не могу разобраться, чем он является в теории и практике.

" Искомый объект можно описать с помощью фильтра F= \lbrace f_{x',y'},x' \in \lbrace0, ...,w_f \rbrace , y' \in \lbrace 0,...,h_f \rbrace \rbrace "