Зачем необходимы треугольные нормы и конормы? Как их использовать? Имеется ввиду, на практике. |
Нечеткие алгоритмы обучения
Обучение на основе условной нечеткой меры
Пусть — множество причин (входов)
и
— множество результатов. Если
—
функция из
в интервал
,
и
— нечеткая мера на
, то


Задача состоит в оценке (уточнении) причин по нечеткой информации.
Пусть — нечеткая мера на
,
связана с
условной нечеткой
мерой
:

Предполагается следующая интерпретация вводимых мер:
оценивает
степень нечеткости утверждения "один из элементов
был
причиной",
,
оценивает степень
нечеткости
утверждения "один из элементов
является результатом
благодаря
причине
";
характеризует степень
нечеткости
утверждения: "
— действительный результат".
Пусть описывает точность информации
,
тогда по определению
.
Метод обучения должен соответствовать обязательному условию: при получении
информации нечеткая мера
меняется таким
образом, чтобы
возрастала. Предположим, что
и
удовлетворяют
-правилу. Пусть
является убывающей, тогда
![g_Y (A) = \mathop \vee \limits_{i = 1}^n \left[ {\sigma _Y
(A|x_i ) \wedge g_X (F_i )} \right],](/sites/default/files/tex_cache/3695f8e93ab653c29e0ba04d53ef9a7a.png)



Обучение может быть осуществлено увеличением тех значений (
)
нечеткой меры
, которые увеличивают
, и
уменьшением тех
значений
(
) меры
, которые
не увеличивают
. Можно показать, что на величину
влияют
только такие
, что
.
Следовательно, нечеткий
алгоритм обучения следующий:

Параметр регулирует скорость обучения, т.е.
скорость
сходимости
. Чем меньше
, тем сильнее
изменяется
. В приведенном
алгоритме нет необходимости увеличивать
больше, чем на
,
так как большое увеличение
не влияет на
. Приведем некоторые
свойства модели обучения.
Свойство 1. Если повторно поступает одна и та же информация, то происходит следующее:
a. новое больше старого
(
) и новое
меньше старого
(
),
следовательно, новая
мера
не меньше старой меры
, и
новая мера

b. при предположении ,
,
сходится к
и
сходится к
0 для
.
Свойство 2.
Если поступает одна и та же информация повторно: для
всех
,
то
.
Следовательно, и
сходится к
для всех
.
Свойство 3.
Предельное значение не зависит от начального значения тогда,
когда на вход повторно поступает одна и та же информация.
Пример. Рассмотрим модель глобального поиска экстремума неизвестной функции с несколькими локальными экстремумами. Для поиска глобального экстремума формируются критерии в виде некоторых функций:
— оценивает число точек, проанализированных на предыдущих
шагах;
— оценивает среднее значение функции по результатам
предыдущих шагов;
— оценивает число точек, значение функции в которых
принадлежит десятке лучших в своей области;
— оценивает максимум по прошлым попыткам;
В описанном случае показывает степень важности
подмножеств
критериев и
оценивает
предположение о нахождении
экстремума в блоке
в соответствии с критерием
. Например,
может зависеть от числа ранее проанализированных точек в блоке
. Пусть
входная информация
определяется формулой













