Россия |
Когнитрон
Обучение когнитрона
Так как когнитрон реализован в виде многослойной сети, возникают сложные проблемы обучения, связанные с выбранной структурой. Получая обучающий набор входных образов, сеть самоорганизуется посредством изменения силы синаптических связей. При этом отсутствуют предварительно определенные выходные образы, представляющие требуемую реакцию сети, однако сеть самонастраивается с целью распознавания входных образов с замечательной точностью.
Алгоритм обучения когнитрона является концептуально привлекательным. В заданной области слоя обучается только наиболее сильно возбужденный нейрон. Автор сравнивает это с "элитным обучением", при котором обучаются только "умные" элементы. Те нейроны, которые уже хорошо обучены, что выражается силой их возбуждения, получат приращение силы своих синапсов с целью дальнейшего усиления своего возбуждения.
На рис. 13.2 показано, что области связи соседних узлов значительно перекрываются. Такое расточительное дублирование функций оправдывается взаимной конкуренцией между ближайшими узлами. Даже если узлы в начальный момент имеют абсолютно идентичный выход, небольшие отклонения всегда случаются; один из узлов всегда будет иметь более сильную реакцию на входной образ, чем соседние. Его сильное возбуждение будет оказывать сдерживающее воздействие на возбуждение соседних узлов, и усиливаться будут только его синапсы — синапсы соседних узлов останутся неизменными.
Возбуждающий нейрон. Можно сказать, что выход возбуждающего нейрона в когнитроне определяется отношением его возбуждающих входов к тормозящим входам. Эта необычная функция имеет важные преимущества, как практические, так и теоретические. Суммарный возбуждающий вход в нейрон является взвешенной суммой входов от возбуждающих входов в предшествующем слое. Аналогично суммарный вход является взвешенной суммой входов от всех тормозящих нейронов. В символьном виде
![E=\sum_i a_i u_i,\quad I=\sum_j b_j v_j,](/sites/default/files/tex_cache/8e74e3ad1558bdb28d6ccdc869940138.png)
где — вес
-го возбуждающего синапса,
— выход
-го
возбуждающего нейрона,
— вес
-го тормозящего
синапса,
—
выход
-го тормозящего нейрона.
Заметим, что веса имеют только положительные значения. Выход нейрона затем вычисляется следующим образом:
![\begin{gathered}
NET=\frac{1+E}{1+I}-1,\\
OUT=\left\{\begin{aligned}
NET , & \quad \text{если } NET\ge 0,\\
0, & \quad \text{если } NET <0.
\end{aligned}
\right.
\end{gathered}](/sites/default/files/tex_cache/9dfbee8de28f31571bc114bdce317fba.png)
Предполагая, что NET имеет положительное значение, можно записать:
![OUT=\frac{E-I}{1+I}.](/sites/default/files/tex_cache/98d2ec7847f4bceac3e19d159973995e.png)
Когда тормозящий вход мал ( ), OUT может быть
аппроксимировано как
![OUT=E-I,](/sites/default/files/tex_cache/32bfb50d3ede966559ef8eb751080541.png)
что соответствует выражению для обычного линейного порогового элемента (с нулевым порогом).