Азербайджан |
Линейный классификатор. Алгоритм персептрона
3.2. Алгоритм персептрона
3.2.1. Математическая модель нейрона. В алгоритме персептрона
в основу положен принцип действия нейрона. Обобщенная схема нейрона
представлена на рисунке. Здесь – компоненты вектора признаков
;
–
сумматор;
– синоптические веса;
– функция активации;
– порог.
Выходом сумматора является величина
, которая является входом
(аргументом) функции активации. Значение функции активации вычисляется
на основе определения знака суммы
:
![f(v)=\left\{
\begin{aligned}
& 0 \text{ при } v < 0 \\
& 1 \text{ при } v > 0
\end{aligned}.\right.](/sites/default/files/tex_cache/b06217696be21c8ed1e095ec18d44a93.png)
Таким образом, нейрон представляет собой линейный классификатор с
дискриминантной функцией .
Тогда задача построения линейного классификатора для заданного
множества прецедентов сводится к задаче обучения нейрона, т.е. подбора
соответствующих весов и порога
. Обучение состоит в коррекции
синоптических весов и порога.
3.2.2. Алгоритм персептрона. Алгоритм персептрона представляет
собой последовательную итерационную процедуру. Каждый шаг состоит в
предъявлении нейрону очередного вектора-прецедента и коррекции весов
по результатам классификации. При этом прецеденты предъявляются
циклически, т.е. после предъявления последнего снова предъявляется
первый. Процесс обучения заканчивается, когда нейрон правильно
классифицирует все прецеденты.
Обозначим весовой вектор после
-й итерации, а
– прецедент,
предъявляемый на
-й итерации.
Основной шаг алгоритма состоит в предъявлении очередного
прецедента :
Если и
, то
;
Если и
, то
;
Если и
, то
;
Если и
, то
.
На данном рисунке – дискриминантная функция после
-го шага алгоритма;
– весовой вектор после
-го шага алгоритма.