Vorbemerkung: Verwendet man die in Abschnitt 7.6 geforderten lokalen Eingaberepräsentationen, bereitet das Ablesen der von einem Ereignis übermittelten Information aus der vom Prediktor vorhergesagten Wahrscheinlichkeitsverteilung keine Schwierigkeiten. Im Falle verteilter reellwertiger Eingaben ist etwas Derartiges i.a. nicht möglich.
Eine für solche Fälle hier vorgeschlagene Heuristik besteht darin, die `Stärke' einer Netzwerkaktualisierung durch eine lineare monoton wachsende Funktion des gegenwärtigen MSE-Fehlers eines alle Ereignisse vorhersagenden Prediktors bestimmen zu lassen. Dieser Heuristik liegt erneut die Annahme zugrunde, daß zwei (im Sinne euklidischer Distanz) ähnliche Eingaben auch `ähnliche' Bedeutung haben.
Bei dem im folgenden beschriebenen Experiment wurden 's Ausgabeknoten nicht normalisiert, und war einfach eine monoton wachsende Funktion des gegenwärtigen Prediktionsfehlers. Diese heuristische Vereinfachung wurde durch brauchbare Resultate gerechtfertigt.
Das System wurde von Daniel Prelinger (Diplomand an der TUM) an unserer im Abschnitt 2.6.4 beschriebenen Standardaufgabe mit Zeitverzögerungen der Länge getestet [119][75].
Das Fehlerkriterium wurde der Natur des verwendeten RAAMs angepaßt: Die Aufgabe galt als gelöst, wenn die euklidische Distanz zwischen den internen Repräsentationen der beiden verschiedenen Sequenzen größer als 0.5 war. Der Prediktor verfügte über keine versteckten Knoten, war gleich 20. Alle Gewichte wurden zufällig zwischen -0.3 und 0.3 initialisiert. Alle Lernraten besaßen den Wert 1.0.
Das System benötigte bei (dem Wert, bei dem die `konventionellen' Netze bereits scheiterten) weniger als 600 Trainingssequenzen, um die Aufgabe zu lösen. Bemerkenswerterweise liegt dieser Wert noch deutlich unter dem Durchschnittswert für die Kollapsarchitektur (siehe Abschnitt 7.5.3). Die Beschreibung weiterer Experimente findet sich in [119] und [75].
Schranken des RAAM-basierten Ansatzes. Für die in Abschnitt 7.4.1 beschriebene Aufgabe (mit zeitlichen Verzögerungen von mehr als 1000 Zeitschritten) fand auch die RAAM-Architektur (ebenso wie die Kollapsarchitektur aus Abschnitt 7.5) innerhalb von Trainingssequenzen keine Lösung. Für praktische Anwendungen größeren Maßstabs ist also die weniger elegante, aber erfolgsträchtigere Prediktorenhierarchie aus Abschnitt 7.3 vorzuziehen.