Опубликован: 27.07.2006 | Доступ: свободный | Студентов: 5714 / 1222 | Оценка: 4.37 / 4.06 | Длительность: 13:49:00
ISBN: 978-5-9556-0049-9
Специальности: Программист
Лекция 12:

Теория адаптивного резонанса. Реализация

Аннотация: В лекции рассматривается процесс функционирования АРТ. Приводится пример обучения сети АРТ. Обсуждаются основные характеристики АРТ. Дается обзор модификаций сети АРТ.

APT представляет собой нечто большее, чем философия, но намного менее конкретное, чем программа для компьютера. Поэтому возник широкий круг реализаций, сохраняющих идеи APT, но сильно отличающихся в деталях. Описываемая далее реализация может рассматриваться в качестве типовой, но необходимо иметь в виду, что другие успешные реализации имеют большие отличия от нее.

Функционирование сетей APT

Рассмотрим более детально пять фаз процесса функционирования APT: инициализацию, распознавание, сравнение, поиск и обучение.

Инициализация. Перед началом процесса обучения сети все весовые векторы B_j и T_j, а также параметр сходства \rho, должны быть установлены в начальные значения.

Веса векторов B_j все инициализируются в одинаковые малые значения. Эти значения должны удовлетворять условию

b_{ij}<\frac{L}{L-1+m},\quad \text{для всех }i,j,

где m — количество компонент входного вектора, L — константа, большая 1 (обычно L = 2 ).

Эта величина является критической; если она слишком большая, сеть может распределить все нейроны распознающего слоя одному входному вектору.

Веса векторов T_j все инициализируются в единичные значения, так что

t_{ij}=1,\quad \text{для всех }j,i.

Эти значения также являются критическими; показано, что слишком маленькие веса приводят к отсутствию соответствия в слое сравнения и отсутствию обучения.

Параметр сходства \rho устанавливается в диапазоне от 0 до 1 в зависимости от требуемой степени сходства между запомненным образом и входным вектором. При высоких значениях \rho сеть относит к одному классу только очень слабо отличающиеся образы. С другой стороны, малое значение \rho заставляет сеть группировать образы, которые имеют слабое сходство между собой. Для выработки точной классификации полезна возможность изменять коэффициент сходства на протяжении процесса обучения, обеспечивая только грубую классификацию в начале процесса обучения и затем постепенно увеличивая коэффициент сходства.

Распознавание. Появление на входе сети входного вектора X инициализирует фазу распознавания. Так как вначале выходной вектор слоя распознавания отсутствует, сигнал G1 устанавливается в 1 функцией ИЛИ вектора X, обеспечивая все нейроны слоя сравнения одним из двух входов, необходимых для их возбуждения (как требует правило двух третей). В результате любая компонента вектора X, равная единице, обеспечивает второй единичный вход, заставляя соответствующий нейрон слоя сравнения возбуждаться и устанавливая его выход в единицу. Таким образом, в этот момент времени вектор C идентичен вектору X.

Как обсуждалось ранее, распознавание реализуется вычислением свертки для каждого нейрона слоя распознавания, определяемой следующим выражением:

NET_j=(B_j\cdot C),

где B_j — весовой вектор, соответствующий нейрону j в слое распознавания, C — выходной вектор нейронов слоя сравнения (в этот момент C равно X ), NET_j — возбуждение нейрона j в слое распознавания.

F является пороговой функцией, определяемой следующим образом:

OUT_j=\left\{\begin{aligned}
1, & \quad \text{если } NET_j>T,\\
0,& \quad \text{в противном случае},
\end{aligned}\right.

где T представляет собой порог.