Die Eingabelage eines solchen Netzes ist zweigeteilt. Es existiert eine Menge von `normalen' Eingabeknoten, und eine Menge von `Zustandsknoten'. , wobei die Menge der Ausgabeknoten ist.
Zu Beginn werden die Knotenaktivationen von mit initialisiert. Zu jedem Zeitpunkt wird mit einer externen Eingabe versehen, worauf in konventioneller Weise eine Aktivationsausbreitungsphase durch die `versteckten Knoten' bis hin zu den Ausgabeknoten stattfindet. Ausgehend von den an der Ausgabelage auftretenden Fehlern schließt sich in konventioneller Weise eine Fehlerausbreitungsphase zurück zur Eingabelage an. Zum Abschluß des Zeitschrittes ändern sich die Gewichte nach den Regeln des statischen Gradientenabstiegs.
Die Aktivationen für zum Zeitpunkt berechnen sich nun wie folgt:
Jeder Knoten beeinflußt mit seiner Aktivation
zum Zeitpunkt
genau einen Knoten , so daß dessen Aktivation zum
nächsten Zeitschritt gegeben ist durch
Elman [8] beschrieb eine Modifikation des obigen Verfahrens. In seiner Version ist es nicht die Ausgabelage, sodern eine Lage mit `versteckten Knoten', die in analoger Weise zur Beeinflussung von dient. Dadurch verschwindet die Abhängigkeit von den Ausgabeknoten (deren Aktivationen ja auch den externen Wünschen gehorchen sollen), man gewinnt etwas an Allgemeinheit.
Einige interessante Experimente wurden mit den in diesem Abschnitt beschriebenen (und verwandten) Methoden durchgeführt, darunter erfolgreiche Experimente zur Sequenzerkennung und zur Sequenzgenerierung (e.g. [8]).
Jordans und Elmans Algorithmen haben den Vorteil, daß sie zumindest eingeschränkt lokal in Raum und Zeit sind. Sie genügen jedoch nicht der starken Definition von Lokalität. Und sie sind weniger generell als die im nächsten Kapitel beschriebenen Algorithmen.