Опубликован: 27.07.2006 | Доступ: свободный | Студентов: 6124 / 1491 | Оценка: 4.37 / 4.06 | Длительность: 13:49:00
ISBN: 978-5-9556-0049-9
Специальности: Программист
Лекция 9:

Обобщения и применения модели Хопфилда

Аннотация: В лекции рассматриваются вероятностные обобщения модели Хопфилда и статистическая машина. Описывается аналого-цифровой преобразователь - как модель сети с обратным распределением. В качестве примера приводится представление информации в сети Хопфилда, решающей задачу коммивояжера.

Модификации правила Хэбба

Ограничения емкости синаптической памяти, а также проблема ложной памяти классической нейронной сети в модели Хопфилда, обученной по правилу Хебба, привели к появлению целого ряда исследований, целью которых было снятие этих ограничений. При этом главный упор делался на модификацию правил обучения.

Матрица Хебба с ортогонализацией образов

На предыдущей лекции было установлено, что ортогональность образов обучающей выборки является весьма благоприятным обстоятельством, так как в этом случае можно показать их устойчивое сохранение в памяти. При точной ортогональности достигается максимальная емкость памяти, равная N — максимально возможному числу ортогональных образов из N компонент.

На этом свойстве ортогональных образов и основан один из наиболее часто используемых способов улучшения правила Хебба: перед запоминанием в нейронной сети исходные образы следует ортогонализовать. Процедура ортогонализации приводит к новому виду матрицы памяти:

W_{ij}=\sum_{\alpha,\mu}\xi_i^{(\alpha)}\xi_j^{(\beta)}B_{\alpha\mu}^{1},

где B^{-1}матрица, обратная к матрице B:

B_{\alpha\mu}=\sum_i\xi_i^{(\alpha)}\xi_i^{(\mu)}.

Такая форма матрицы памяти обеспечивает воспроизведение любого набора из p<N образов. Однако существенным недостатком этого метода является его нелокальность: обучение связи между двумя нейронами требует знания состояний всех других нейронов. Кроме того, прежде чем начать обучение, необходимо заранее знать все обучающие образы. Добавление нового образа требует полного переобучения сети. Поэтому данный подход весьма далек от исходных биологических оснований сети Хопфилда —Хебба, хотя на практике приводит к заметным улучшениям ее функционирования.

Отказ от симметрии синапсов

Другим подходом для улучшения правила Хебба является отказ от симметрии синаптических соединений. Матрица памяти может выбираться в следующей форме:

W_{ij}=\left(\sum_\alpha\xi_i^{(\alpha)}\xi_j^{(\alpha)}\right)\cdot
(1-P_{ij}).

Элементы матрицы P_{ij} из множества \{0,1\} управляют наличием или отсутствием связи от нейрона i к нейрону j.

Увеличение емкости памяти в этой модели в принципе может быть достигнуто за счет появления новых степеней свободы, связанных с матрицей P. В общем случае, однако, трудно предложить алгоритм выбора этой матрицы. Следует также отметить, что динамическая система с несимметричной матрицей не обязана быть устойчивой.