Азербайджан |
Классификация на основе байесовской теории решений
2.1. Байесовский подход
Байесовский подход исходит из статистической природы наблюдений. За основу берется предположение о существовании вероятностной меры на пространстве образов, которая либо известна, либо может быть оценена. Цель состоит в разработке такого классификатора, который будет правильно определять наиболее вероятный класс для пробного образа. Тогда задача состоит в определении "наиболее вероятного" класса.
Задано классов
,
а также
– вероятность того, что
неизвестный образ, представляемый вектором признаков
, принадлежит
классу
.
называется апостериорной вероятностью, поскольку задает
распределение индекса класса после эксперимента ( a posteriori – т.е.
после того, как значение вектора признаков
было получено).
Рассмотрим случай двух классов и
.
Естественно выбрать решающее правило таким образом: объект относим к тому классу, для которого
апостериорная вероятность выше. Такое правило классификации по
максимуму апостериорной вероятности называется Байесовским: если
, то
классифицируется в
, иначе в
. Таким образом, для Байесовского
решающего правила необходимо получить апостериорные вероятности
.
Это можно сделать с помощью формулы Байеса.
Формула Байеса, полученная Т. Байесом, позволяет вычислить апостериорные вероятности событий через априорные вероятности и функции правдоподобия (была опубликована в 1763 году, через два года после смерти автора).
Пусть – полная группа несовместных событий.
.
, при
.
Тогда апостериорная вероятность имеет вид:
![P(A_i|B)=\frac{P(A_i)P(B|A_i)}{\sum_{i=1}^n P(A_i)P(B|A_i)} ,](/sites/default/files/tex_cache/9bbb77bc7bac194265442eed0db4bc6c.png)
![P(A_i)](/sites/default/files/tex_cache/8374b1dbd278e8c50f1235ff08b18371.png)
![A_i, P(B|A_i)](/sites/default/files/tex_cache/9b6e469f1f8e7f74e8b258615802972f.png)
![B](/sites/default/files/tex_cache/9d5ed678fe57bcca610140957afab571.png)
![A_i](/sites/default/files/tex_cache/693a3b974c23e87e8c941211cd45cfb8.png)
Рассмотрим получение апостериорной вероятности ,
зная
и
.
![\begin{gathered}
P(AB)=P(A|B)P(B), \; P(AB)=P(B|A)P(A) \\
P(A|B)P(B)=P(B|A)P(A) \\
P(B|A)=\frac{P(A|B)P(B)}{P(A)}
\end{gathered}](/sites/default/files/tex_cache/1ea2f9730d61241f2d293d1432efbc29.png)
Если и
описываются плотностями
и
, то
![P(B|x)=\frac{p(x|B)P(B)}{p(x)}\Rightarrow P(\Omega_i|x)=\frac{p(x|\Omega_i)P(\Omega_i)}{p(x)}.](/sites/default/files/tex_cache/d2fe29ed003adf15ecf4769d808bffd6.png)
При проверке классификации сравнение и
эквивалентно
сравнению
и
.
В случае, когда
, считается, что мера множества
равна нулю.
Таким образом, задача сравнения по апостериорной вероятности
сводится к вычислению величин .
Будем считать, что у нас достаточно данных для определения вероятности принадлежности объекта
каждому из классов
. Такие вероятности называются априорными
вероятностями классов. А также будем считать, что известны функции
распределения вектора признаков для каждого класса
. Они
называются функциями правдоподобия
по отношению к
. Если априорные
вероятности и функции правдоподобия неизвестны, то их можно оценить
методами математической статистики на множестве прецедентов. Например,
, где
– число прецедентов из
.
– общее число прецедентов.
может быть приближено гистограммой распределения вектора признаков
для прецедентов из класса
.
Итак, Байесовский подход к статистическим задачам основывается на предположении о существовании некоторого распределения вероятностей для каждого параметра. Недостатком этого метода является необходимость постулирования как существования априорного распределения для неизвестного параметра, так и знание его формы.