Vorbemerkung: Verwendet man die in Abschnitt 7.6 geforderten lokalen Eingaberepräsentationen, bereitet das Ablesen der von einem Ereignis übermittelten Information aus der vom Prediktor vorhergesagten Wahrscheinlichkeitsverteilung keine Schwierigkeiten. Im Falle verteilter reellwertiger Eingaben ist etwas Derartiges i.a. nicht möglich.
Eine für solche Fälle hier vorgeschlagene Heuristik besteht darin, die `Stärke' einer Netzwerkaktualisierung durch eine lineare monoton wachsende Funktion des gegenwärtigen MSE-Fehlers eines alle Ereignisse vorhersagenden Prediktors bestimmen zu lassen. Dieser Heuristik liegt erneut die Annahme zugrunde, daß zwei (im Sinne euklidischer Distanz) ähnliche Eingaben auch `ähnliche' Bedeutung haben.
Bei dem im folgenden beschriebenen Experiment wurden
's Ausgabeknoten nicht normalisiert, und
war einfach
eine monoton wachsende Funktion des gegenwärtigen
Prediktionsfehlers.
Diese heuristische Vereinfachung wurde durch brauchbare
Resultate gerechtfertigt.
Das System wurde von Daniel Prelinger (Diplomand an der TUM)
an unserer im Abschnitt 2.6.4 beschriebenen Standardaufgabe
mit Zeitverzögerungen der Länge getestet
[119][75].
Das Fehlerkriterium wurde der Natur des verwendeten RAAMs
angepaßt:
Die Aufgabe galt als gelöst, wenn die euklidische Distanz
zwischen den internen Repräsentationen der beiden verschiedenen
Sequenzen größer als 0.5 war.
Der Prediktor verfügte über keine versteckten Knoten,
war gleich 20.
Alle Gewichte wurden zufällig zwischen -0.3 und 0.3
initialisiert.
Alle Lernraten besaßen den Wert 1.0.
Das System benötigte bei (dem Wert, bei dem
die `konventionellen' Netze bereits scheiterten) weniger
als 600 Trainingssequenzen,
um die Aufgabe zu lösen. Bemerkenswerterweise liegt dieser
Wert noch deutlich unter dem Durchschnittswert für
die Kollapsarchitektur (siehe Abschnitt 7.5.3).
Die Beschreibung weiterer Experimente findet sich in
[119]
und [75].
Schranken des RAAM-basierten Ansatzes.
Für die in Abschnitt 7.4.1 beschriebene Aufgabe (mit
zeitlichen Verzögerungen
von mehr als 1000 Zeitschritten) fand auch die RAAM-Architektur
(ebenso wie die Kollapsarchitektur aus Abschnitt 7.5)
innerhalb von Trainingssequenzen keine Lösung.
Für praktische Anwendungen größeren Maßstabs ist also
die weniger elegante, aber erfolgsträchtigere
Prediktorenhierarchie aus Abschnitt 7.3 vorzuziehen.