Опубликован: 13.08.2013 | Уровень: для всех | Доступ: платный | ВУЗ: Поволжский Государственный Университет Телекоммуникаций и Информатики
Лекция 5:

Нейронные сети, как способ обработки данных

Для однослойной нейронной сети рассмотрим процесс функционирования более подробно. Каждый элемент вектора входа соединен со всеми входами нейрона и это соединение задается матрицей весов W; при этом каждый i-й нейрон включает суммирующий элемент, который формирует скалярный выход n(i). Совокупность скалярных функций n(i) объединяются в S – элементный вектор входа n функции активации слоя. Выходы слоя нейронов формируют вектор столбец а, и таким образом описание слоя нейтронов имеет вид a=f(W \cdot P + b) и описывает одиночный маршрут. Структурная схема однослойной нейронной сети представлена на Рисунке 10.8, здесь Pвектор входа R \times 1, W – весовая матрица SxR,n,a,b векторы размера S \times 1.

На данном этапе разработки аналитическим способом подобраны оптимальные значения факторов. По количеству факторов определено число нейронов в сети. Модель нейронной сети выбирает образ из набора, который содержится в её памяти.


Рис. 10.8.

НС представляет собой адаптивную систему, жизненный цикл которой состоит из двух независимых фаз – обучения и работы сети.

Обучение сети состоит в поиске вектора w, для которого суммарная ошибка по всем маршрутам минимальна:

E(w)=\sum\limits_{n-1}^N e_n=min ( 10.8)
e_n - ошибка для n - маршрута.

Для исследования процесса маршрутизации в вычислительных сетях используем нейронные сети прямого распространения с частичной структурой связей.

Обучение — это процесс, в результате которого система постепенно приобретает способность отвечать нужными реакциями на определенные совокупности внешних воздействий, а адаптация — это подстройка параметров и структуры системы с целью достижения требуемого качества управления в условиях непрерывных изменений внешних условий.

Кроме того, результат самообучения характеризует пригодность выбранного пространства для конкретной задачи обучения распознаванию. Если абстрактные образы, выделяемые в процессе самообучения, совпадают с реальными, то пространство выбрано удачно. Чем сильнее абстрактные образы отличаются от реальных, тем "неудобнее" выбранное пространство для конкретной задачи.

Таким образом, полный алгоритм обучения НС с помощью процедуры обратного распространения строится так:

  1. Подать на входы сети один из возможных образов и в режиме обычного функционирования НС, когда сигналы распространяются от входов к выходам, рассчитать значения последних.
    S_j^{(n)}=\sum\limits_{i=0}^M y_i^{(n-1)} \cdot w^{(n)}_ij ( 10.9)
    где M – число нейронов в слое n-1 с учетом нейрона с постоянным выходным состоянием +1, задающего смещение;  y_i^{(n-1)}=w^n_{ij} – i-ый вход нейрона j слоя n.

    y^{(n)}_j=f(S^{(n)}_j), ( 10.10)
    где f()-сигмоиддальная функция

    y_q(0)=I_q, ( 10.11)
    где I_q - q-я компонента вектора входного образа.

  2. Скорректировать все веса в НС
    w_{ij}^{(n)}(t)=w_{ij}^{(n)} (t-1)+\triangle w_{ij}^{(t)} ( 10.11)
  3. Если ошибка сети существенна, перейти на шаг 1. В противном случае – конец.

Сети на шаге 1 попеременно в случайном порядке предъявляются все тренировочные образы, чтобы сеть, образно говоря, не забывала одни по мере запоминания других. Алгоритм иллюстрируется на рисунке 10.9.

Диаграмма сигналов в сети

Рис. 10.9. Диаграмма сигналов в сети

В процессе обучения линейной сети траектория будет перемещаться из начальной точки в точку минимума критерия качества.

Елена Ерофеева
Елена Ерофеева
Россия, Тольятти, Тольяттинский филиал Самарского государственного педагогического университета, 1995
Алена Семенова
Алена Семенова
Россия, г. Новосибирск