Die in den Abschnitten 2.3, 2.4 und 2.5 behandelten Verfahren berechnen den exakten Gradienten der Zielfunktion bezüglich der Gewichtsmatrix. Sie zielen darauf ab, nur diejenigen Eingabeereignisse zu berücksichtigen, die für die Minimierung der Fehlertrajektorie relevant sind.
Als interessanten Kontrast benützen wir im folgenden eine alternative Methode zur Sequenzspeicherung, die zwar in limitierter Weise Gradienteninformation verwendet, allerdings nicht den exakten Performanzgradienten berechnet (und damit weniger mathematische Rechtfertigung besitzt als die ersten drei Verfahren).
Was die Methode hier jedoch interessant macht, ist die Tasache, daß sie uns erlaubt, im Gegensatz zur Kollapsarchitektur aus Abschnitt 7.5 mit nur einem einzigen Netzwerk (statt mit zwei Netzwerken) zur Ereignisspeicherung auszukommen (eine weitere interessante Eigenschaft der Methode besteht darin, daß die Berechnungskomplexität pro Verbindung und pro Zeitschritt einer Trainingssequenz unabhängig von der Netzgröße und der Sequenzlänge konstant ist). Ein Experiment wird zeigen, daß dieses alternative System in der Tat einen noch schnelleren Lernprozeß erlauben kann als die ohnehin schon relativ schnelle Kollapsarchitektur.
Das Verfahren beruht auf einem erstmals von Pollack vorgeschlagenem Prinzip [74], dem rekursiven auto-assoziatives Gedächtnis (RAAM - für `recursive auto-associative memory'):