Основы теории нейронных сетей



         

Матрица Хебба с ортогонализацией образов


На предыдущей лекции было установлено, что ортогональность образов обучающей выборки является весьма благоприятным обстоятельством, так как в этом случае можно показать их устойчивое сохранение в памяти. При точной ортогональности достигается максимальная емкость памяти, равная

N
— максимально возможному числу ортогональных образов из
N
компонент.

На этом свойстве ортогональных образов и основан один из наиболее часто используемых способов улучшения правила Хебба: перед запоминанием в нейронной сети исходные образы следует ортогонализовать. Процедура ортогонализации приводит к новому виду матрицы памяти:

 W_{ij}=\sum_{\alpha,\mu}\xi_i^{(\alpha)}\xi_j^{(\beta)}B_{\alpha\mu}^{1},

где

B^{-1}
— матрица, обратная к матрице
B
:

 B_{\alpha\mu}=\sum_i\xi_i^{(\alpha)}\xi_i^{(\mu)}.

Такая форма матрицы памяти обеспечивает воспроизведение любого набора из

p<N
образов. Однако существенным недостатком этого метода является его нелокальность: обучение связи между двумя нейронами требует знания состояний всех других нейронов. Кроме того, прежде чем начать обучение, необходимо заранее знать все обучающие образы. Добавление нового образа требует полного переобучения сети. Поэтому данный подход весьма далек от исходных биологических оснований сети Хопфилда—Хебба, хотя на практике приводит к заметным улучшениям ее функционирования.




Содержание  Назад  Вперед