Структура ДАП
На рис. 10.1 приведена базовая конфигурация ДАП. Она выбрана таким образом, чтобы подчеркнуть сходство с сетями Хопфилда и предусмотреть увеличения количества слоев. На рис. 10.1 входной вектор
![](../../../../img/tex/5/7/9/579ccfc016adc91d1f9de5b90cb9f24b.png)
![](../../../../img/tex/b/0/7/b07e53e2778fbfd087e9fe13f44cbb02.png)
![](../../../../img/tex/6/1/8/618a48ba286743cf6db5b9a0318c4d70.png)
![](../../../../img/tex/6/1/8/618a48ba286743cf6db5b9a0318c4d70.png)
![](../../../../img/tex/f/b/c/fbc8e1c1b009757b8e3cf61220e2b01d.png)
![](../../../../img/tex/5/7/9/579ccfc016adc91d1f9de5b90cb9f24b.png)
![](../../../../img/tex/5/7/9/579ccfc016adc91d1f9de5b90cb9f24b.png)
![](../../../../img/tex/6/1/8/618a48ba286743cf6db5b9a0318c4d70.png)
![](../../../../img/tex/9/0/b/90b7ba441022b54063051d047bdbd32a.png)
![](../../../../img/tex/a/7/d/a7d9e9f2a57f845a8fa93336e8892666.png)
или в векторной форме:
![](../../../../img/tex/0/0/f/00f93c0cbbd80a60b41067127366c1a4.png)
где
![](../../../../img/tex/6/1/8/618a48ba286743cf6db5b9a0318c4d70.png)
![](../../../../img/tex/5/7/9/579ccfc016adc91d1f9de5b90cb9f24b.png)
![](../../../../img/tex/b/0/7/b07e53e2778fbfd087e9fe13f44cbb02.png)
![](../../../../img/tex/9/0/b/90b7ba441022b54063051d047bdbd32a.png)
![](image/24-1.png)
Рис. 10.1.
Аналогично,
![](../../../../img/tex/4/1/1/4113c9544cf1241b3ac3cf31bca2407d.png)
где
![](../../../../img/tex/f/b/c/fbc8e1c1b009757b8e3cf61220e2b01d.png)
![](../../../../img/tex/b/0/7/b07e53e2778fbfd087e9fe13f44cbb02.png)
Как отмечено нами ранее, Гроссберг показал преимущества использования сигмоидальной (логистической) функции активации
![](../../../../img/tex/3/c/7/3c7ee449eb2a3ed5dc1d0880908dc9cd.png)
где
![](../../../../img/tex/b/0/7/b073ed756487b0aca7bdd1de344b281a.png)
![](../../../../img/tex/6/0/4/6048f1e10201f48f0650ed59edaedd21.png)
![](../../../../img/tex/7/0/4/704d36417df935ff49413a56662b813c.png)
— взвешенная сумма входных сигналов нейрона
![](../../../../img/tex/6/0/4/6048f1e10201f48f0650ed59edaedd21.png)
![](../../../../img/tex/c/3/a/c3a26558e30e84670de83de038dc2e21.png)
В простейших версиях ДАП значение константы
![](../../../../img/tex/c/3/a/c3a26558e30e84670de83de038dc2e21.png)
выбирается большим, в результате чего функция активации приближается к простой пороговой функции. В дальнейшем будем предполагать, что используется пороговая функция активации.
Примем также, что существует память внутри каждого нейрона в слоях 1 и 2 и что выходные сигналы нейронов изменяются одновременно с каждым тактом синхронизации, оставаясь постоянными в паузах между этими тактами. Таким образом, поведение нейронов может быть описано следующими правилами:
![](../../../../img/tex/a/c/b/acb1062f344762856d74d9ffd22293bc.png)
где
![](../../../../img/tex/6/d/c/6dcfffb1f72a1009824267dcb8aa7b48.png)
![](../../../../img/tex/6/0/4/6048f1e10201f48f0650ed59edaedd21.png)
в момент времени
![](../../../../img/tex/b/5/b/b5b31ff78fdd837e6c2ebed0a841bbad.png)
Заметим, что, как и в описанных ранее сетях, слой 0 не производит вычислений и не имеет памяти; он является только средством распределения выходных сигналов слоя 2 к элементам матрицы
![](../../../../img/tex/f/b/c/fbc8e1c1b009757b8e3cf61220e2b01d.png)