Основы теории нейронных сетей



         

Обучение персептрона


В 1957 г. Р.Розенблатт разработал модель, которая вызвала большой интерес у исследователей. Несмотря на некоторые ограничения ее исходной формы, она стала основой для многих современных, наиболее сложных алгоритмов обучения с учителем.

Персептрон является двухуровневой нерекуррентной сетью, вид которой показан на рис. 15.3. Она использует алгоритм обучения с учителем; другими словами, обучающая выборка состоит из множества входных векторов, для каждого из которых указан свой требуемый вектор цели. Компоненты входного вектора представлены непрерывным диапазоном значений; компоненты вектора цели являются двоичными величинами (0 или 1). После обучения сеть получает на входе набор непрерывных входов и вырабатывает требуемый выход в виде вектора с бинарными компонентами.


Рис. 15.3. 

Обучение осуществляется следующим образом:

  1. Рандомизируются все веса сети в малые величины.
  2. На вход сети подается входной обучающий вектор

    \bf X
    и вычисляется сигнал NET от каждого нейрона, используя стандартное выражение

     NET_j=\sum_i x_i w_{ij}.

  3. Вычисляется значение пороговой функции активации для сигнала NET от каждого нейрона следующим образом:

     OUT_j=\left\{ \begin{aligned} 1, &\quad \text{если } NET_j>\theta_j,\\ 0, & \quad \text{в противном случае.} \end{aligned} \right.

    Здесь

    \theta_j
    представляет собой порог, соответствующий нейрону
    j
    (в простейшем случае все нейроны имеют один и тот же порог).

  4. Вычисляется ошибка для каждого нейрона посредством вычитания полученного выхода из требуемого выхода:

     error_j=target_j-OUT_j.

  5. Каждый вес модифицируется следующим образом:

     W_{ij}(t+1)=w_{ij}(t)+\alpha x_i error_j.

  6. Повторяются шаги со второго по пятый до тех пор, пока ошибка не станет достаточно малой.




Содержание  Назад  Вперед