Московский государственный университет имени М.В.Ломоносова
Опубликован: 30.04.2008 | Доступ: свободный | Студентов: 1614 / 251 | Оценка: 4.24 / 3.92 | Длительность: 14:56:00
Специальности: Математик
Лекция 11:

Методы генерации признаков

11.5. Генерация признаков на основе нелинейных преобразований. Выделение текстуры изображений.

Пусть дано изображение или его часть (область). Задача состоит в генерации признаков, которые впоследствии будут использоваться при классификации.

Определение. Цифровое изображение (монохромное) есть результат процесса дискретизации непрерывной функции I(x,y) в виде двумерного массива I(m,n), где m=0,1,\ldots,N_x-1, n=0,1,\ldots,N_Y-1. Значение функции I(x,y) – интенсивность, число градаций N_gглубина изображения.

Определение. Генерацией признаков называется эффективное кодирование необходимой для классификации информации, содержащейся в оригинальных (исходных) данных.

11.5.1. Региональные признаки. Признаки для описания текстуры.

Дадим не точное определение текстуры.

Определение. Текстурой называется распределение оттенков серого цвета среди пикселов в регионе.

Рассмотрим основные типы характеристик:

  • тонкие – грубые,
  • гладкие – резкие (нерегулярные),
  • однородные – неоднородные.

Отметим, что в основе подхода лежит гипотеза о том, что внутри региона значения интенсивностей описываются одинаково, т.е. одним и тем же распределением вероятностей.

Пусть интенсивность внутри региона есть случайная величина. Тогда, при условии, что внутри региона характеристики одинаковы, данная случайная величина внутри региона одинаково распределенная, чем обеспечивается свойство однородности в регионе.

Нашей целью является генерация признаков, которые как-то квантуют свойства фрагментов изображения (регионов).

Данные признаки появляются при анализе пространственных соотношений по распределению серых цветов.

11.5.1.1. Признаки, основанные на статистиках первого порядка. Пусть I – интенсивность случайной величины, представляющая собой значение (уровень интенсивности) серого цвета в регионе. Пусть также P(I=I-0)вероятность, того что интенсивность в регионе равна I_0.

Определение. Гистограммой первого порядка называется величина P(I), равная отношению числа пикселов с уровнем интенсивности I_0 к общему числу пикселов в регионе и обозначается \def\I{\mathop{I}} P(\I\limits^{.}).

Рассмотрим центральный момент:

\def\I{\mathop{I}}
\mu_i=\sum_{\I\limits^{.}=0}^{N_g-1}(\I\limits^{.}-m_1)P(\I\limits^{.}),
где m_1 – среднее значение интенсивности – первый момент, который в общем случае определяется из формулы:
\def\I{\mathop{I}}
m_k=\sum_{\I\limits^{.}=0}^{N_g-1}I^k P(\I\limits^{.})
при k=1

Среди центральных моментов наиболее часто используются

  • \mu_2 – дисперсия \def\I{\mathop{I}} \I\limits^{.},
  • \mu_3 – ассиметрия,
  • \mu_4 – эксцесс.

В качестве признаков, основанных на статистиках первого порядка, также может использоваться абсолютный момент:

\def\I{\mathop{I}}
\widetilde{\mu}_i=\sum_{\I\limits^{.}=0}^{N_g-1}\left|\I\limits^{.}-m_1\right|\cdot P(\I\limits^{.})
и энтропия:
\def\I{\mathop{I}}
H=-E\left[\log_2 P(\I\limits^{.})\right]
=-\sum_{\I\limits^{.}=0}^{N_g-1}P(\I\limits^{.})\log_2(P(\I\limits^{.})),
которая определяет меру равномерности распределения. Чем энтропия выше, тем распределение равномернее.

11.5.1.2. Признаки, основанные на статистиках второго порядка. Матрицы сочетаний. Пусть d – относительное расстояние между пикселами, \varphi – ориентация. Тогда можем ввести метрику следующим образом:

\rho(p_1,p_2)=\max
\left\{
|p_1x-p_2x|,|p_1y-p_2y|
\right\},
причем пикселы рассматриваются в парах.

Рассмотрим соседство для четырех пикселей. Пусть \varphi=\left\{0^{\circ},45^{\circ},90^{\circ},135^{\circ}\right\}, т.е у нас имеется горизонтальное, вертикальное, диагональное и антидиагональное соседство.


Обозначим через \def\I{\mathop{I}}
P_{\varphi}
\left(
\I\limits^{.}(m,n),\I\limits^{.}(m_1,n_1)
\right)
совместную плоскость. Рассмотрим \varphi=0^{\circ}. \def\I{\mathop{I}}
P_{\varphi}
\left(
\I\limits^{.}(m,n))=I_1,\I\limits^{.}(m\pm d,n)=I_2)
\right)
вероятность того, что точки, расположенная на горизонтали \rho=d имеют интенсивности I_1 и I_2, равные отношению числа пар пикселов с расстоянием d и значением I_1 и I_2 к общему числу пикселов в регионе.

Аналогично считается \def\I{\mathop{I}}
P_{\varphi}
\left(
\I\limits^{.}(m,n)=
I_1,\I\limits^{.}(m\pm d,n\mp d)=I_2)
\right)
для \varphi=45^{\circ} ; \def\I{\mathop{I}}
P_{\varphi}
\left(
\I\limits^{.}(m,n)=
I_1,\I\limits^{.}(m,n\mp d)=I_2)
\right)
для \varphi=90^{\circ} ; \def\I{\mathop{I}}
P_{\varphi}
\left(
\I\limits^{.}(m,n)=
I_1,\I\limits^{.}(m\pm d,n\pm d)=I_2)
\right)
для \varphi=135^{\circ}. Каждый такой массив называют матрицей сочетаний или матрицей пространственной зависимости.

Рассмотрим конкретный пример матрицы \def\I{\mathop{I}} \I\limits^{.}. Пусть N_g=4, т.е. уровни интенсивности изменяются от 0 до 3. Пусть также матрица \def\I{\mathop{I}} \I\limits^{.} задана следующим образом:

\def\I{\mathop{I}} 
\I\limits^{.}=
\begin{pmatrix}
0&0&2&2\\
1&1&0&0\\
3&2&3&3\\
3&2&2&2
\end{pmatrix}.

Т.к. просмотр происходит в обе стороны, то общее количество пар равно 24.

Рассмотрим \varphi=0^{\circ} и d=1. \def\I{\mathop{I}}
0\leq{\I\limits^{.}}_1,{\I\limits^{.}}_2\leq 3
. Очевидно, что матрица A является симметрической.

\def\I{\mathop{I}}
A=
\begin{pmatrix}
P(0,0)&P(0,1)\\
P(0,1)&P({\I\limits^{.}}_1,{\I\limits^{.}}_2)
\end{pmatrix}
=\frac{1}{24}
\begin{pmatrix}
4&1&1&0\\
1&2&0&0\\
1&0&6&3\\
0&0&3&2
\end{pmatrix}

Для \varphi=45^{\circ} и d=1 матрица A выглядит следующим образом:

A=\frac{1}{18}
\begin{pmatrix}
0&1&2&1\\
1&0&1&1\\
2&1&0&3\\
1&1&3&0
\end{pmatrix}

Существуют следующие основные виды признаков, основанные на статистиках второго порядка:

Угловой момент второго порядка: ASM=\sum_{i=0}^{N_g-1}\sum_{j=0}^{N_g-1}(P(i,j))^2
мера гладкости изображения. При малой вариации ASM\approx 1, а при больших вариациях (например при увеличении) контраста ASM\rightarrow 0.

Контраст (по заданной паре): CON=\sum_{n=0}^{N_g-1}n^2
\left\{
\sum_{i=0}^{N_g-1}\sum_{j=0}^{N_g-1}P(i,j)
\right\}
мера локальной дисперсии серого.

Момент обратной разности: IDF=\sum_{i=0}^{N_g-1}\sum_{j=0}^{N_g-1}\frac{P(i,j)}{1+(i-j)^2}
. Момент обратной разности имеет большое значение для слабоконтрастных изображений.

Энтропия: H=\sum_{i=0}^{N_g-1}\sum_{j=0}^{N_g-1}P(i,j)\log_2 P(i,j)
мера равномерности. Энтропия связана с фиксированной ориентацией и фиксированным расстоянием.