Die Eingabelage eines solchen Netzes ist zweigeteilt. Es existiert eine
Menge von `normalen' Eingabeknoten, und eine Menge
von `Zustandsknoten'.
, wobei
die Menge der Ausgabeknoten ist.
Zu Beginn werden die Knotenaktivationen von mit
initialisiert.
Zu jedem Zeitpunkt
wird
mit einer externen Eingabe versehen,
worauf in konventioneller Weise
eine Aktivationsausbreitungsphase durch
die `versteckten Knoten' bis hin zu den Ausgabeknoten stattfindet.
Ausgehend von den an der Ausgabelage
auftretenden Fehlern
schließt sich in konventioneller Weise eine Fehlerausbreitungsphase zurück
zur Eingabelage an. Zum Abschluß des Zeitschrittes
ändern sich die Gewichte nach
den Regeln des statischen Gradientenabstiegs.
Die Aktivationen für zum Zeitpunkt
berechnen sich nun wie folgt:
Jeder Knoten
beeinflußt mit seiner Aktivation
zum Zeitpunkt
genau einen Knoten
, so daß dessen Aktivation
zum
nächsten Zeitschritt gegeben ist durch
Elman [8] beschrieb eine Modifikation des obigen Verfahrens.
In seiner Version ist es nicht die Ausgabelage, sodern eine
Lage mit `versteckten Knoten', die in analoger Weise
zur Beeinflussung von dient. Dadurch verschwindet die Abhängigkeit
von den Ausgabeknoten (deren Aktivationen ja
auch den externen Wünschen gehorchen
sollen), man gewinnt etwas an Allgemeinheit.
Einige interessante Experimente wurden mit den in diesem Abschnitt beschriebenen (und verwandten) Methoden durchgeführt, darunter erfolgreiche Experimente zur Sequenzerkennung und zur Sequenzgenerierung (e.g. [8]).
Jordans und Elmans Algorithmen haben den Vorteil, daß sie zumindest eingeschränkt lokal in Raum und Zeit sind. Sie genügen jedoch nicht der starken Definition von Lokalität. Und sie sind weniger generell als die im nächsten Kapitel beschriebenen Algorithmen.