Россия |
Обобщения и применения модели Хопфилда
Алгоритмы разобучения (забывания)
Возможность забывания ненужной, лишней информации является одним из замечательных свойств биологической памяти. Идея приложения этого свойства к искусственной нейросети Хопфилда "удивительно" проста: при запоминании образов обучающей выборки вместе с ними запоминаются и ложные образы. Их-то и следует "забыть".
Соответствующие алгоритмы получили название алгоритмов разобучения. Суть их сводится к следующему.
На первой фазе происходит обучение сети по стандартному правилу
Хебба. Память наполняется истинными образами и множеством ложной
информации. На следующей фазе (фазе разобучения) сети предъявляется
некоторый (случайный) образ Сеть эволюционирует от
состояния
к некоторому состоянию
, которое
при большом объеме обучающей выборки чаще всего оказывается ложным.
Теперь матрица связей может быть поправлена, с целью уменьшить глубину
минимума энергии, отвечающего этому ложному состоянию:
![w_{ij}(t+1)=w_{ij}(t)-\varepsilon\cdot \lambda_i^{(f)}\lambda_j^{(f)}.](/sites/default/files/tex_cache/482676b3f88ba3ea87d7d5ff591652b3.png)
В качестве степени забывания выбирается некоторое
малое число, что гарантирует незначительное ухудшение полезной памяти,
если состояние
не окажется ложным. После нескольких
"сеансов забывания" свойства сети улучшаются.
Данная процедура пока не имеет формального теоретического обоснования, однако на практике приводит к более регулярной энергетической поверхности нейронной сети и к увеличению объема бассейнов притяжения полезных образов.
Непрерывные системы
На предыдущей лекции была рассмотрена классическая модель Хопфилда с двоичными нейронами. Изменение состояний нейронов во времени описывалось детерминированными правилами, которые в заданный момент времени однозначно определяли степень возбуждения всех нейронов сети.
Хопфилд рассматривал модели с непрерывной активационной
функцией , точнее моделирующей биологический нейрон. В общем
случае это
-образная или логистическая функция
![F(x)=\frac{1}{1+\exp(-\lambda NET)},](/sites/default/files/tex_cache/a8b04fea5e733212223d3da74c8852cc.png)
где — коэффициент, определяющий крутизну сигмоидальной
функции. Если
велико,
приближается к
описанной ранее
пороговой функции. Небольшие значения
дают более пологий
наклон.
Как и для бинарных систем, устойчивость гарантируется, если веса
симметричны, т.е. и
при
всех
Функция
энергии, доказывающая устойчивость подобных систем, сконструирована,
но она не рассматривается здесь из-за своего концептуального сходства с
дискретным случаем.
Если велико, непрерывные системы функционируют
подобно дискретным бинарным системам, окончательно стабилизируясь со
всеми выходами, близкими нулю или единице, т. е. в вершине единичного
гиперкуба. С уменьшением
устойчивые точки удаляются от
вершин, последовательно исчезая по мере приближения
к
нулю.
На рис. 9.1 показаны линии энергетических уровней непрерывной
системы с двумя нейронами.