Московский государственный университет путей сообщения
Опубликован: 01.06.2007 | Доступ: свободный | Студентов: 1899 / 100 | Оценка: 4.38 / 3.75 | Длительность: 22:59:00
ISBN: 978-5-9556-0094-9
Специальности: Программист
Лекция 11:

Трассировка логической структуры нейросети

< Лекция 10 || Лекция 11: 12345 || Лекция 12 >

11.3. Оптимальное закрепление рецепторов за событиями в нейросети заданной структуры

Если задана структура нейросети (подразумевается ее "овеществленная" проекция на плоскость или даже реализация на плате, на кристалле, на решетке связанных процессорных элементов и т.д.), то от распределения рецепторов между событиями зависит возможность формирования отдельных термов без введения дополнительных связей. Например, если достоверность событий Х1 и Х7 подается на входы, значительно отстающие друг от друга, то при заданной, например, регулярной структуре связей могут возникнуть большие трудности в реализации аналога конъюнкции Х_{1} \wedge  Х_{7}, используемой далее в качестве отдельного терма, который входит в состав других логических конструкций. Необходимое объединение этих событий на входе одного нейрона может быть достигнуто даже не ранее, чем на выходном слое. Это потребует введения дополнительных связей для построения необходимого терма.

Чтобы минимизировать число вводимых дополнительных связей или исключить их вовсе, необходимо на основе анализа конструкций, входящих в состав описания вида (11.1), построить предпочтительный ряд следования событий, реализующий компромисс в выборе минимальных расстояний между элементами этого ряда.

Пусть на рис. 11.2 представлена структура нейросети, которую следует обучить в соответствии с логическим описанием (11.1) создаваемой СПР. На рисунке отображено окончательное решение задачи трассировки, и связи с единичными весами выделены. Произведем обоснование этого решения и, прежде всего, распределим события между нейронами- рецепторами.

Воспользуемся следующим алгоритмом упорядочения событий.

  1. Организуем сквозной просмотр всех выражений (11.1) и выпишем последовательность имен событий в порядке их обнаружения.
  2. Просматриваем слева направо сформированную последовательность и находим имя события, входящего в эту последовательность неоднократно.
  3. Находим среднее значение позиций, занимаемых именем найденного события в последовательности, и определяем для него ближайшее целое, не меньшее найденного.
  4. Найденное значение определяет новый порядковый номер данного события в последовательности. Заносим имя события на новую позицию и исключаем другие его вхождения в последовательность.
  5. Шаги 2-4 повторяем до достижения единственности вхождения всех имен событий в последовательность.
Обученная нейросеть

Рис. 11.2. Обученная нейросеть

В рассматриваемом примере последовательность имен событий первоначально имеет вид

\begin{array}{l}
\:| \overline{\phantom{Х_{7} Х_{3} Х_{5} Х_{10} Х_{13} Х_{1} Х_{7} Х_{4} Х_{6}}}\downarrow \\
Х_{1} Х_{7} Х_{3} Х_{5} Х_{10} Х_{13} Х_{1} Х_{7} Х_{4} Х_{6} Х_{2} Х_{12} Х_{14} Х_{8} Х_{1} Х_{10} Х_{9} Х_{1} Х_{10} Х_{2} Х_{15} Х_{2}Х_{11} Х_{13}
\end{array}

Имя Х1 входит неоднократно. Новая его позиция определяется как ](1 + 7 + 15 + 18) : 4[ = 11. После переноса Х1 на новое место (показано стрелкой) и исключения его прежних вхождений последовательность имен принимает вид

\begin{array}{l}
\:| \overline{\phantom{Х_{3} Х_{5}}}\downarrow \\
Х_{7} Х_{3} Х_{5} Х_{10} Х_{13} Х_{7} Х_{4} Х_{6} Х_{1} Х_{2 }Х_{12} Х_{14} Х_{8} Х_{10} Х_{9} Х_{10} Х_{2} Х_{15} Х_{2}Х_{11} Х_{13}
\end{array}

Новое место Х7 определяется как ](1 + 6) : 2[ = 4. Последовательность принимает вид

\begin{array}{l}
\phantom{Х_{3} Х_{5} Х_{7}}\:|\overline{\phantom{Х_{13} Х_{4} Х_{6} Х_{1} Х_{2} Х_{12}}}\downarrow\\
Х_{3} Х_{5} Х_{7}Х_{10} Х_{13} Х_{4} Х_{6} Х_{1 }Х_{2} Х_{12} Х_{14} Х_{8} Х_{10} Х_{9} Х_{10} Х_{2} Х_{15} Х_{2}Х_{11} Х_{13}
\end{array}

Новое место Х10 определяется как ](3 + 13 + 15) : 3[ = 11. Последовательность принимает вид

\begin{array}{l}
\phantom{Х_{3} Х_{5} Х_{7}}\: | \overline{ \phantom{Х_{4} Х_{6} Х_{1}Х_{2} Х_{12} Х_{10}}}\downarrow\\
Х_{3} Х_{5} Х_{7}Х_{13} Х_{4} Х_{6} Х_{1}Х_{2} Х_{12} Х_{10}Х_{14} Х_{8} Х_{9} Х_{2} Х_{15} Х_{2}Х_{11} Х_{13}
\end{array}

Новая позиция Х13 определяется как ](4 + 18) : 2[ =11. Получаем новый вид последовательности:

\begin{array}{l}
\phantom{Х_{3} Х_{5} Х_{7}Х_{4} Х_{6} Х_{1}}\: |\overline{\phantom{ Х_{12} Х_{10}Х_{13}Х_{14} Х_{8}}}\downarrow \\
Х_{3} Х_{5} Х_{7}Х_{4} Х_{6} Х_{1}Х_{2} Х_{12} Х_{10}Х_{13}Х_{14} Х_{8} Х_{9} Х_{2} Х_{15} Х_{2}Х_{11}
\end{array}

Отыскивается новое место Х2, как ](7 + 14 + 16) : 3[ = 13, и последовательность имен событий принимает окончательный вид, отображенный на рисунке:

Х_{3} Х_{5} Х_{7}Х_{4} Х_{6} Х_{1}Х_{12} Х_{10}Х_{13}Х_{14} Х_{8} Х_{2}Х_{9} Х_{15} _{}Х_{11}.

Заметим, что при реализации на компьютере "кнопки" или окна на панели управления могут располагаться в удобном для пользователя порядке, соединяясь с закрепленными за ними рецепторами.

< Лекция 10 || Лекция 11: 12345 || Лекция 12 >
Эльвира Герейханова
Эльвира Герейханова

Раньше это можно было зделать просто нажав на тест и посмотреть результаты а сейчас никак

Елена Лобынцева
Елена Лобынцева
Помогите разобраться как можно подобрать НС для распознавания внутренней области выпуклого многоугольника?