Zur Zeit bezeichnen wir die Aktivation des
-ten Knotens mit
,
das Gewicht der gerichteten Verbindung von
nach
mit
und ihren Beitrag mit
.
Die Aktivationsausbreitungsregel lautet:
Knoten wird zur Zeit
aktiviert, falls er als Eingabeknoten
eine sensorische Perzeption macht, oder falls er als Nicht-Eingabeknoten
den lokalen Wettbewerb seiner WTA-Einheit gewinnt, weil ihm
unter allen Mitbewerbern
die größte positive Netzeingabe
zu eigen ist.
Wir beschränken uns hier auf den einfachsten Fall:
ist gleich
, falls
aktiv ist, und
sonst.
Die Gewichtsänderungsregel findet simultan mit der Aktivationsausbreitungsregel ihre Anwendung (wir wollen ja Lokalität nicht nur im Raum, sondern auch in der Zeit):
Ist der Nicht-Eingabeknoten aktiv, ändern sich die Gewichte
gemäß
Dabei ist eine positive Lernrate.
ist die zum Zeitpunkt
vom externen Kritiker
an
spendierte Gewichtssubstanz, welche z.B wie
folgt berechnet werden kann:
Falls der Kritiker (noch) nicht weiß, ob das Systemverhalten
belohnenswert war, ist
.
Ist der Kritiker aber der Ansicht, daß Belohnung vergeben werden
sollte, und war der Knoten
zur Zeit
aktiv, so ist
. Dabei ist
ein positiver Proportionalitätsfaktor.
Im Abschnitt über die Experimente mit der neuronalen Eimerkette
werden wir sehen, daß es viel Raum für mehr oder weniger überwachte
Strategien gibt, das System durch die Bestimmung von
mit Lehrinformation zu versorgen: Es ist ohne weiteres
möglich, jeden Knoten zu jedem Zeitpunkt oder aber
auch nur einige wenige Knoten zu isolierten Zeitpunkten
von externer Seite her zu instruieren.
Dank der zeitlich veränderlichen Umgebung sind es im allgemeinen nicht die Aktivationen (wie bei Hopfield-Netzen oder bei Equilibriums-BP), sondern höchstens die Gewichte, die einen Zustand des dynamischen Gleichgewichts erreichen können. Ein stabiler Zustand stellt sich ein, wenn jede Verbindung zu jedem Zeitpunkt gerade soviel Gewichtssubstanz verliert, wie sie im nächsten Zeitschritt wieder gewinnt. Das bedeutet, daß (parallel laufende) bereits etablierte `Eimerketten' sequentielle Kooperation und Arbeitsteilung hervorrufen.
Der lokale Charakter aller für die neuronale Eimerkette
notwendigen Berechnungen sei hier noch einmal betont. Es gibt
keinen Bedarf nach extern definierten Trainingsintervallgrenzen.
Es ist nicht notwendig, über weit vergangene Aktivationen
Buch zu führen. Es wird nicht einmal eine kumulative Berechnung
(etwa von exponentiell gewichteten Summen vergangener Aktivationen)
gefordert.
Jeder Knoten und jede Verbindung führen zu jedem Zeitpunkt im
wesentlichen dieselben Berechnungen aus. Für beliebige
Netzwerkstrukturen ist damit der Spitzenberechnungsaufwand
pro Verbindung und Zeitschritt . Auf
einer sequentiellen v. Neumann Maschine
kann das Verfahren mit einem
Spitzenberechnungsaufwand pro Zeitschritt
von
implementiert werden,
wobei
die Dimension des Gesamtgewichtsvektors
ist.