Опубликован: 29.10.2019 | Доступ: свободный | Студентов: 786 / 98 | Длительность: 17:21:00
Лекция 8:

Обретение навыков построения систем ассоциативных вычислений, распознавания символов и принятия решений

< Лекция 7 || Лекция 8: 1234 || Лекция 9 >

Формирование информации на рецепторном слое

Определим возбуждение рецепторного слоя, учитывая то, что по нейросетевым технологиям решаются сложные, чаще всего трудно формализуемые задачи. Исходная информация этих задач может быть настолько несовместима по смыслу, типам данных и единицам измерения, что приведение ее к некоторому количественному воплощению — величине возбуждения нейронов входного слоя — представляет серьёзную проблему.

Например, как объединить величину превышаемой водителем скорости и тип автомобиля иностранного производства со вчерашним неудачным выступлением любимой автоинспектором футбольной команды, — при нахождении величины штрафа? Ведь каждый из перечисленных факторов должен определить некоторые общие, приведенные значения возбуждения.

Такое приведение также зависит от задачи. Поскольку нейроны — нечто стандартное для данной задачи или класса задач, то каждая характеристика нейрона — величина возбуждения, веса его синапсических связей, порог, функция активации — должны быть одинаковы или принадлежать общему (по каждой характеристике) для всех нейронов диапазону возможных значений.

Дадим рекомендации, основанные на "событийном" принципе.

Разобьем скорость на диапазоны штрафования, например, [90, 100), [100, 110), [110, 120), [120, 200] . За каждым диапазоном скорости закрепим нейрон входного слоя — рецептор.

Универсальный подход основан на связывании величины возбуждения рецептора с достоверностью – вероятностью того, что величина скорости принадлежит одному или нескольким диапазонам. Такому подходу будем следовать в дальнейшем.

А именно, хотя бы интуитивно (а интуиция основана на тщательном изучении Инструкции) определим достоверность того, что интересующая нас величина принадлежит данному диапазону. С какой достоверностью она принадлежит второму диапазону? А третьему?

Грамотный инспектор помнит, что должен исходить из свойств ИМС - исчерпывающих множеств событий, с которыми имеет дело. Для ИМС сумма вероятностей событий равна единице. Тогда, в соответствии с высказанными положениями, инспектор не должен, например, задавать значение достоверности того, что скорость автомобиля находится в пределах 100 – 120 км/ч, равной 0,8, и в то же время достоверность того, что она находится в пределах 120 – 140 км/ч, равной 0,7. Более того, в соответствии с рекомендациями теории нечётких множеств он следует нормальному закону распределения плотности вероятностей (рис. 8.13).

Распределение возбуждения рецепторов по нормальному закону

Рис. 8.13. Распределение возбуждения рецепторов по нормальному закону

А именно, если он считает, что, скорее всего, скорость принадлежит диапазону 100 – 120 км/ч, и полагает достоверность этого высказывания равной 0,6 (математическое ожидание), то куда деть остальные 0,4? Инспектор распределяет эту величину между "смежными" по смыслу событиями, имитируя нормальный закон, например, полагая значения возбуждения рецепторов, как показано на рисунке.

В случае не столь высокой грамотности, полагаясь на универсальность аппарата логических нейронных сетей, имитирующего массовое ассоциативное мышление, можно даже уйти от понятия достоверности, как вероятностной категории. Все ли мы на бытовом уровне знакомы с понятием исчерпывающего множества событий, связанным с условием нормировки, т.е. – с условием равенства единице суммы их вероятностей? Ведь часто можно услышать: "Даю голову на отсечение, что это так, хотя и допускаю, что все наоборот…" Главное, чтобы исходные оценки информации были относительными, отражающими принцип "больше – меньше". Это расширит популярность нейросетевых технологий, исключит необходимость специальных знаний. Ведь какие-то начальные возбуждения рецепторов, при их относительном различии, распространятся по нейросети, определяя предпочтительность принимаемого решения!

Тогда, на этапе формирования обученной нейросети, получим возможность формирования аналога некой таблицы, в соответствии с которой будет действовать инспектор.

Выделим нейроны, "отвечающие" за типы автомобилей: отечественного производства, "мерседес", "вольво", "джип" и т.д. Величину возбуждения этих нейронов будем полагать равной 1 — на этапе верификации, или равной достоверности события — в рабочем режиме. Аналогично выделим рецепторы, "отвечающие" за другие возможные события: степень интеллигентности водителя (так же по диапазонам изменения), выигрыш или проигрыш любимой команды и т.д.

Следовательно, на входном слое будут формироваться приведённые значения возбуждения.

В рабочем режиме мы, таким образом, получили возможность использования неопределённой, недостоверной информации. Например, инспектор не смог из-за высокой скорости отличить "ниву" от "чероки". Тогда он решает ввести значение 0,5 в графу "нива" (величина возбуждения рецептора, "отвечающего" за "ниву" станет равной 0,5) и 0,5 – в графу "джип "чероки" (такой же станет величина возбуждения соответствующего рецептора). Однако, подумав, он на всякий случай вводит величину 0,2 в графу ВАЗ 2104, что также во власти его сомнений. Так же инспектор поступает и с другими характеристиками сложившейся ситуации в поисках наиболее достоверного решения по принципу наибольшей похожести.

Следует сделать важное замечание. Всегда ли обязательно разбиение параметров, отражаемых непрерывными функциями, на диапазоны изменения? Часто удобно закреплять рецепторы не за диапазонами изменения значений параметров, а за конкретными значениями, как это рассматривалось ранее. В этом случае опыт носит дискретный характер.

Например, в этом же примере о штрафовании может быть известен опыт вида:

"Если скорость автомобиля равна 100 км/час & <другие характеристики ситуации>, то размер штрафа составляет..."

"Если скорость автомобиля равна 120 км/час & <другие характеристики ситуации>, то размер штрафа составляет..." и т.д.

Тогда как задать возбуждение рецепторов, если инспектор точно установил, что скорость автомобиля при наезде на пешехода была равна 114 км/час?

По-видимому, он рассуждает на основе обратно пропорциональной близости скорости к границам указанного интервала: "Достоверность того, что скорость автомобиля составляет 100 км/час, я найду как (120 – 114):(120 – 100), а достоверность того, что скорость автомобиля составляет 120 км/час, я найду как (114 – 100):(120 – 100) . Следует обратить внимание на то, что сумма найденных достоверностей равна единице.

Таким образом, указан самый простой и практичный способ возбуждения всего двух рецепторов, "охватывающих" испытываемое значение фактора. Конечно, если очень хочется, можно пользоваться нормальным законом распределения вероятностей.

И не ищите методов точной оценки порогов, весов связей, возбуждения рецепторов и пр. Оценки эти определяются интуицией, питающейся опытом. Поэтому в задании исходных данных для логической нейронной сети всегда присутствует фактор волюнтаризма, неопределённости, случайности и даже предвзятости личного мнения (начальника). Что ж, не зря же человек – общественное животное.

Краткие итоги

  1. Нейронные сети образуют базовый механизм самого низкого уровня ассоциативного мышления.
  2. Рецепторный слой изначально формируется на основе известных точек или диапазонов факторного пространства, которые в совокупности со значениями других факторов представляют множество ситуаций, для которых известны решения. Ситуации и решения образуют базу знаний на основе отношений вида "если – то". В рабочем режиме компоненты интересующей ситуации могут не совпадать с теми значениями, для которых существуют рецепторы. Кроме того, данные о возникшей ситуации могут быть нечёткими, то есть определяемыми с некоторой вероятностью. В этом случае необходимо возбуждать рецепторы в соответствии с оценкой достоверности принадлежности фактора тем значениям или диапазонам, для которых существуют рецепторы (распределяя "единицу" между "близкими" рецепторами). Пользователь может при желании приближённо реализовать некоторый предполагаемый закон распределения этой достоверности – не только нормальный.
  3. Не следует непременно строить сложные аппроксимирующие зависимости при обработке опытных данных и результатов моделирования. Достаточно по экспериментальным данным построить базу знаний, объединяющую выводы, полученные в некоторых точках факторного пространства. Ассоциативные вычисления с помощью логической нейронной сети для "промежуточных" точек позволяют более точно, по сравнению с известными численными методами интерполяции, получать необходимые выводы для всех типов данных. Если же точность оказывается недостаточной, следует продолжить эксперимент или моделирование в недостаточно изученной области.
  4. Распознавание символов (после центровки и масштабирования) целесообразно производить с помощью заключения эталонов в области экрана (эталонные области, ловушки), достаточно широко (с учётом искажений испытываемых символов) охватывающие эти эталоны. Исследуется, какую из известных эталонных областей в наибольшей степени и с превышением порога покрывает испытываемый символ. Для этого функция активации строится на основе суммирования сигналов в каждой эталонной области. Если при проверке всех известных эталонных областей порог распознавания не был превышен, подаваемый символ признаётся неизвестным.
  5. Построение сложных систем принятия решений производится на основе их логического описания, преобразованного в форму конъюнкций или "конъюнкция дизъюнкций", позволяющую построить однослойную логическую нейронную сеть.

Вопросы:

  1. Как формируется обученная логическая нейронная сеть с помощью системы правил вывода по всем исследованным ситуациям?
  2. Как формируется обученная нейронная сеть типа персептрона для распознавания символов с помощью эталонных "ловушек"?
  3. Как задаётся информация и как формируются решения по нечётким данным?
< Лекция 7 || Лекция 8: 1234 || Лекция 9 >