Основы теории нейронных сетей


Обучающий алгоритм обратного распространения - часть 8


 \Delta w_{pq,k}(n+1)=(1-\alpha)\delta_{q,k}OUT_{p,j}+\alpha\Delta w_{pq,k}(n).

Затем вычисляется изменение веса

 w_{pq,k}(n+1)=w_{pq,k}(n)+\eta\Delta w_{pq,k}(n+1),

где

\alpha
— коэффициент сглаживания, варьируемый в диапазоне от 0,0 до 1,0. Если
\alpha
равен 1,0, то новая коррекция игнорируется и повторяется предыдущая. В области между 0 и 1 коррекция веса сглаживается величиной, пропорциональной
\alpha
. По-прежнему,
\eta
является коэффициентом скорости обучения, служащим для управления средней величиной изменения веса.




Начало  Назад  Вперед