Опубликован: 26.07.2006 | Доступ: свободный | Студентов: 3082 / 550 | Оценка: 4.00 / 3.77 | Длительность: 15:27:00
ISBN: 978-5-94774-818-5
Специальности: Программист, Математик
Лекция 12:

Нечеткие алгоритмы обучения

Аннотация: В лекции рассматриваются следующие нечеткие алгоритмы обучения: обучающийся нечеткий автомат, обучение на основе условной нечеткой меры, адаптивный нечеткий логический регулятор, обучение при лингвистическом описании предпочтения.

Известно, что обучающиеся системы улучшают функционирование в процессе работы, модифицируя свою структуру или значение параметров. Предложено большое число способов описания и построения обучающихся систем. Все они предполагают решение следующих задач: выбор измерений (свойств, рецепторов); поиск отображения пространства рецепторов в пространство признаков, которые осуществляют вырожденное отображение объектов; поиск критерия отбора признаков. Причем в различных задачах для получения хороших признаков могут понадобиться разные критерии отбора. При обучении необходимо отвлечься от различий внутри класса, сосредоточить внимание на отличии одного класса от другого и на сходстве внутри классов. Необходим достаточный уровень начальной организации обучающейся системы. Для сложной структурной информации необходима многоуровневая обучающаяся система.

Следует выделить следующие группы нечетких алгоритмов обучения: обучающийся нечеткий автомат, обучение на основе условной нечеткой меры, адаптивный нечеткий логический регулятор, обучение при лингвистическом описании предпочтения.

Рекуррентные соотношения в алгоритмах первых двух групп позволяют получать функцию принадлежности исследуемого понятия на множестве заранее известных элементов. В третьей группе нечеткий алгоритм обучения осуществляет модификацию нечетких логических правил для удержания управляемого процесса в допустимых границах. В четвертой группе нечеткий алгоритм обучения осуществляет поиск вырожденного отображения пространства свойств в пространство полезных признаков и модификацию на их основе описания предпочтения.

Обучающийся нечеткий автомат

Рассмотрим автомат с четким входом i(t) и зависимым от времени нечетким отношением перехода \delta(t). Пусть \(\tilde s(t)\) — нечеткое состояние автомата в момент времени t на конечном множестве состояний S=\{s_{1}, \ldots ,s_{n}\} и i_{l} — оценка значения i(t).Состояние автомата в момент времени (t+1) определяется \min - \max композицией:

\mu _{\tilde s(t + 1)} (s_k ) = \mathop {\sup }\limits_j
\;\min \;(\mu _{\tilde s(t)} (s_j ),\;\mu _{\delta (t)} (s_x ,i_l ,s_j
)),
или аналогично ей. Обучение направлено на изменение нечеткой матрицы переходов:
\begin{gathered}
  \mu _{\delta (t)} (s_k ,i_l ,s_j ) = \mu _{\delta (t - 1)} (s_k ,i_l ,s_k
),\quad \quad j \ne k, \hfill \\
  \mu _{\delta (t)} (s_k ,i_l ,s_k ) = \alpha _k \mu _{\delta (t - 1)} (s_k
,i_l ,s_k ) + (1 - \alpha _k )\lambda _k (t), \hfill \\
\end{gathered}
где \(0 < \alpha _k  < 1\), \(0 < \lambda _k (t) \leqslant 1\), \(k =
1,\ldots,n\). Константа \lambda_{k} определяет скорость обучения. Начало работы автомата возможно без априорной информации \(\mu _{\tilde s(0)} (s_k ) = 0\) или 1, а также с априорной информацией \(\mu _{\tilde s(0)} (s_k ) = \lambda _k (0)\). Величина \lambda_{k}(t) зависит от оценки функционирования автомата. Доказано, что имеет место сходимость матрицы переходов, независимо от того, есть ли априорная информация, т.е. \(\mu _{\tilde s(0)} (s_j )\) может быть любым значением из интервала [0,1].

Пример. На рис. 12.1 изображена модель классификации образов. Роль входа и выхода можно кратко объяснить следующим образом. Во время каждого интервала времени классификатор образов получает новый образец \(x'\) из неизвестной внешней среды. Далее \(x'\) обрабатывается в рецепторе, из которого поступает как в блок "обучаемый", так и в блок "учитель" для оценки. Критерий оценки должен быть выбран так, чтобы его минимизация или максимизация отражала свойства классификации (классов образов). Поэтому, благодаря естественному распределению образов, критерий может быть включен в систему, чтобы служить в качестве учителя для классификатора. Модель обучения формируется следующим образом. Предполагается, что классификатор имеет в распоряжении множество дискриминантных функций нескольких переменных. Система адаптируется к лучшему решению. Лучшее решение выделяет множество дискриминантных функций, которые дают минимум нераспознавания среди множества дискриминантных функций для данного множества образцов.

Владимир Власов
Владимир Власов

Зачем необходимы треугольные нормы и конормы? Как их использовать? Имеется ввиду, на практике.