Основы теории нейронных сетей


Сеть встречного распространения полностью


На рис. 6.7 показана сеть встречного распространения целиком. В режиме нормального функционирования предъявляются входные векторы

X
и
Y
, и обученная сеть дает на выходе векторы
X'
и
Y'
, являющиеся аппроксимациями соответственно для
X
и
Y
. Векторы
X
и
Y
предполагаются здесь нормализованными единичными векторами, следовательно, порождаемые на выходе векторы также будут иметь тенденцию быть нормализованными.


Рис. 6.7. 

В процессе обучения векторы

X
и
Y
подаются одновременно и как входные векторы сети, и как желаемые выходные сигналы. Вектор
X

используется для обучения выходов

X'
, а вектор
Y
— для обучения выходов
Y'
слоя Гроссберга. Сеть встречного распространения целиком обучается с использованием того же самого метода, который описывался для сети прямого действия. Нейроны Кохонена принимают входные сигналы как от векторов
X
, так и от векторов
Y
. Но эта ситуация неотличима от той, когда имеется один большой вектор, составленный из векторов
X
и
Y
, и тем самым не влияет на алгоритм обучения.

В качестве результирующего получается единичное отображение, при котором предъявление пары входных векторов порождает их копии на выходе. Этот вывод не представляется особенно интересным, если не заметить, что предъявление только вектора

X
(с вектором
Y
, равным нулю) порождает как выходы
X'
, так и выходы
Y'
. Если
F
— функция, отображающая
X
в
Y'
, то сеть аппроксимирует ее. Также, если
F

обратима, то предъявление только вектора

Y
(приравнивая
X
нулю) порождает
X'
. Уникальная способность сети встречного распространения — порождать функцию и обратную к ней — делает эту сеть полезной в ряде приложений.

Рис. 6.7, в отличие от первоначальной конфигурации, не демонстрирует противоток в сети, по которому она получила свое название. Такая форма выбрана потому, что она также иллюстрирует сеть без обратных связей и позволяет обобщить понятия, развитые в предыдущих лекциях.




Начало  Назад  Вперед



Книжный магазин