Опубликован: 29.10.2019 | Уровень: для всех | Доступ: платный
Лекция 8:

Обретение навыков построения систем ассоциативных вычислений, распознавания символов и принятия решений

< Лекция 7 || Лекция 8: 1234 || Лекция 9 >
Аннотация: Лекция посвящена внедрению начальных и, как выяснится в дальнейшем, вполне достаточных навыков построения логических нейронных сетей для ассоциативных вычислений, распознавания букв, символов и других объектов, отображённых на экране или на модели сетчатки глаза, а также систем принятия решений вполне общего характера.

…письмоводитель градоначальника, вошедши утром с докладом в его кабинет, увидел такое зрелище: градоначальниково тело, облечённое в вицмундир, сидело за письменным столом, а перед ним, на кипе недоимочных реестров, лежала, в виде щегольского пресс-папье, совершенно пустая градоначальникова голова.

М.Е. Салтыков-Щедрин. История одного города.

Введение в ассоциативные вычисления

Пусть некоторая система характеризуется значениями трёх параметров x, y, z, которые принято называть факторами факторного пространства. Оценка эффективности этой системы сводится к определению некоторых финансовых затрат $, сопряжённых со значениями этих параметров. Математические зависимости для данной оценки отсутствуют, задача является трудно формализуемой.

Пусть значение фактора x определяется в сантиметрах (см), значение фактора y – в килограммах (кг), значение фактора z – в количестве человек (чел.), занятых в эксперименте. Составим схему, связав стрелками значения параметров, для которых известны оценки, с этими оценками, как показано на рис. 8.1. Таким образом, схематично представлена некоторая база данных, которую необходимо преобразовать в базу знаний (БЗ), дополнив возможностью логического вывода.

Логическая нейронная сеть, реализующая базу знаний

Рис. 8.1. Логическая нейронная сеть, реализующая базу знаний

Представим построенную схему, как схему однослойной логической нейронной сети, где слева показан рецепторный слой, а справа – единственный выходной слой нейронов. "Оживим" эту сеть, введя функцию активации нейронов:

V_i = \left \{ \begin{matrix}
\frac{1}{3}\sum_{j}v_j \text{ если это значение не меньше порога h}\\ 
 0, в противном случае
\end{matrix} \right. ( 8.1)

Здесь Vi (i = 1, 2, 3, 4)величина возбуждения нейрона выходного слоя, v_j (j\in {1, ..., 7})величина возбуждения рецептора. Выберем h = 0,5.

Таким образом, на основе опытных данных, в виде обученной логической нейронной сети с единичными весами связей сформирована база знаний, отображающая некоторые финансовые расходы. С помощью данной сети можно производить ассоциативные вычисления для точек факторного пространства, первоначально не представленных на рецепторном слое. Ведь перед пользователем или исследователем возникает вопрос: можно ли для произвольной ситуации в области задания параметров хотя бы приблизительно предсказать связанные с ней расходы?

Рассмотрим пример ассоциативных вычислений для значений x = 0,2 см, y = 30 кг, z = 6 чел. Значение х лежит как раз посредине, между представленными на рецепторном слое значениями х = 1 и х = 3. Тогда полагаем v1 = v2 = 0,5, v3 = 0. Заданное значение y находится между 25 и 40, но ближе к первому. Распределим единицу обратно пропорционально "расстоянию" y = 30 до указанных двух значений и положим v4 = 0,66, v5 = 0,33. Аналогично примем v6 = 0,8, v7 = 0,2. Находим V1 = 0,65, V2 = 0,65, V3 = 0, V4 = 0 и среднее ожидаемое значение затрат

P = {{50 \times {V_1} + 60 \times {V_2} + 80 \times {V_3} + 70 \times {V_4}} \over {{V_1} + {V_2} + {V_3} + {V_4}}} = {{50 \times 0,65 + 60 \times 0,65} \over {1,3}} = \$ 55

Теперь усложним пример, введя, на основе накопленного опыта и экспериментов, веса связей, как показано на рис. 8.2. (Непомеченные связи – единичные.)

С учётом весов связей целесообразно выбрать другую функцию активации i-го нейрона:

V_i = \left \{ \begin{matrix}
\frac{\sum_{j}v_j\omega_{ji}}{\sum_{j}\omega_{ji}} \text{ если это значение не меньше порога h}\\ 
 0, в противном случае
\end{matrix} \right. ( 8.2)

Здесь Vi – величина возбуждения i-го нейрона, vj – величина возбуждения рецептора, связанного с i-м, \omega_{ji} – вес связи j-го рецептора с i-м нейроном.

Логическая нейронная сеть с весами связей

Рис. 8.2. Логическая нейронная сеть с весами связей

Рассчитаем среднее количество затрат для той же ситуации. Возбуждение рецепторов остаётся тем же, и при том же значении h находим V1 = 0,63, V2 = 0,5, V3 = 0, V4 = 0,

P = {{50 \times {V_1} + 60 \times {V_2} + 80 \times {V_3} + 70 \times {V_4}} \over {{V_1} + {V_2} + {V_3} + {V_4}}} = {{50 \times 0,63 + 60 \times 0,5} \over {1,13}} = \$ 54,4

Учитывая, что решение могло быть не численным, или допускало бы нечисловую компоненту, сформируем простейшую методику проведения ассоциативных вычислений по логической нейронной сети:

1) Задание исследуемой ситуации на рецепторном слое.

2) Расчёт величины возбуждения нейронов с помощью пороговой функции активации.

3,а) Если все нейроны своим возбуждением указывают на численное значение некоторой величины, находится среднее значение (по возбуждению всех нейронов) в качестве ответа решаемой задачи.

3,б) Если нейроны указывают не на численные значения, например, на текст, символ объекта, качественное значение и пр., находится нейрон с максимальным значением возбуждения (не единственность такового разрешается пользователем, например, уточнением ситуации или рассмотрением дополнительных факторов). Принимается ответ, на который указывает максимально возбудившийся нейрон. Этот процесс выбора подобен голосованию в пользу предпочтительного решения по данной ситуации.

3,в) Если решение представляет собой вектор, то пункты 3,а и 3,б выполняются отдельно для каждой компоненты этого решения. Это означает, что где можно выполнить усреднение, оно производится, где нельзя, на решение указывает максимально возбудившийся нейрон.

Однако ощущение неудовлетворённости мучает нас. Хорошо, действительно – всё так просто! Но как такую нейросеть всунуть в компьютер? Средства мультимедиа, что ли использовать?

Нет. Всё гораздо проще! Логическая нейронная сеть представляется и обрабатывается с помощью матрицы связей. Для рассмотренного примера она представлена в табл. 8.1.

Таблица 8.1. Матрица связей для логической нейронной сети
Рецепторы x=0,1 x=0,3 x=0,5 y=25 y=40 z=5 z=10
Пример 0,5 0,5 0 0,66 0,33 0,8 0,2
Решение 1 1 1 0,6
Решение 2 1 1 1 0,8
Решение 3 1 1 0,5
Решение 4 1 1 0,5
< Лекция 7 || Лекция 8: 1234 || Лекция 9 >
Ирина Шевченко
Ирина Шевченко
Россия
Таня Михайлова
Таня Михайлова
Россия