Wir beginnen mit einer allgemeinen Standardarchitektur, die (im selben Sinne wie ein herkömmlicher Rechner) Turingmaschinen-äquivalent ist. Sie eignet sich zur Berechnung beliebiger, auf sequentiell arbeitenden konventionellen Maschinen berechenbarer Funktionen und weist damit über die Schranken einfacher statischer BP-Musterassoziatoren hinaus: Im Prinzip gestattet das System beispielsweise die Extraktion der Regeln einer unbekannten Grammatik aus einem sequentiellen Eingabestrom.
Abschnitt 2.1 definiert dabei zunächst
die Netzwerkstruktur und Aktivierungsdynamik, welche beschreiben,
wie Eingabesequenzen verarbeitet werden.
Daraufhin geben wir eine geeignete Zielfunktion an,
die formal unser Ziel spezifiziert, welches darin bestehen soll,
beliebige diskrete Ausgabesequenzen mit
beliebigen diskreten Eingabesequenzen zu assoziieren.
Schließlich leiten wir mit der
Kettenregel eine Reihe nicht-lokaler Algorithmen zum Erlernen von
Ein-/Ausgabesequenzen ab, die alle
denselben exakten Performanzgradienten berechnen, sich aber
in ihrer Komplexität unterscheiden.
Daraus ist bereits ersichtlich, daß die Kettenregel gelegentlich
mehr als einen Lernalgorithmus gestattet und offenbar in mehr
oder weniger raffinierter Weise eingesetzt werden kann.
Der erste Algorithmus braucht für beliebig lange
Traininssequenzen beliebig viel Speicherplatz.
Der zweite Algorithmus kommt mit fixem
Speicherplatz aus, hat jedoch den Nachteil hoher
Zeitkomplexität pro Iterationsschritt.
Der dritte neuartige Algorithmus (der originäre Beitrag
dieses Kapitels) benötigt nicht mehr
Speicherplatz als der zweite, ist jedoch
um den Faktor schneller (wobei
die Anzahl der
Knoten im Netzwerk bezeichnet).
Experimente mit klammerbalanzierenden Turingmaschinen und regulären Grammatiken belegen die praktische Anwendbarkeit der Verfahren. Sie demonstrieren aber auch gewisse praktische Schranken rekurrenter Netze für den Fall langer zeitlicher Verzögerungen zwischen Ereignissen und korrelierten gewünschten Ausgaben. Dies wird Motivation für Kapitel 7 liefern.