next up previous contents
Nächste Seite: SCHLUSSBEMERKUNGEN Aufwärts: KONTINUIERLICHE GESCHICHTSKOMPRESSION Vorherige Seite: ARCHITEKTUR UND ZIELFUNKTIONEN   Inhalt

EXPERIMENT MIT DER RAAM-ARCHITEKTUR

Vorbemerkung: Verwendet man die in Abschnitt 7.6 geforderten lokalen Eingaberepräsentationen, bereitet das Ablesen der von einem Ereignis übermittelten Information aus der vom Prediktor vorhergesagten Wahrscheinlichkeitsverteilung keine Schwierigkeiten. Im Falle verteilter reellwertiger Eingaben ist etwas Derartiges i.a. nicht möglich.

Eine für solche Fälle hier vorgeschlagene Heuristik besteht darin, die `Stärke' einer Netzwerkaktualisierung durch eine lineare monoton wachsende Funktion des gegenwärtigen MSE-Fehlers eines alle Ereignisse vorhersagenden Prediktors bestimmen zu lassen. Dieser Heuristik liegt erneut die Annahme zugrunde, daß zwei (im Sinne euklidischer Distanz) ähnliche Eingaben auch `ähnliche' Bedeutung haben.

Bei dem im folgenden beschriebenen Experiment wurden $P$'s Ausgabeknoten nicht normalisiert, und $\tau^p(t)$ war einfach eine monoton wachsende Funktion des gegenwärtigen Prediktionsfehlers. Diese heuristische Vereinfachung wurde durch brauchbare Resultate gerechtfertigt.

Das System wurde von Daniel Prelinger (Diplomand an der TUM) an unserer im Abschnitt 2.6.4 beschriebenen Standardaufgabe mit Zeitverzögerungen der Länge $m$ getestet [119][75].

Das Fehlerkriterium wurde der Natur des verwendeten RAAMs angepaßt: Die Aufgabe galt als gelöst, wenn die euklidische Distanz zwischen den internen Repräsentationen der beiden verschiedenen Sequenzen größer als 0.5 war. Der Prediktor verfügte über keine versteckten Knoten, $n_H$ war gleich 20. Alle Gewichte wurden zufällig zwischen -0.3 und 0.3 initialisiert. Alle Lernraten besaßen den Wert 1.0.

Das System benötigte bei $m = 20$ (dem Wert, bei dem die `konventionellen' Netze bereits scheiterten) weniger als 600 Trainingssequenzen, um die Aufgabe zu lösen. Bemerkenswerterweise liegt dieser Wert noch deutlich unter dem Durchschnittswert für die Kollapsarchitektur (siehe Abschnitt 7.5.3). Die Beschreibung weiterer Experimente findet sich in [119] und [75].

Schranken des RAAM-basierten Ansatzes. Für die in Abschnitt 7.4.1 beschriebene Aufgabe (mit zeitlichen Verzögerungen von mehr als 1000 Zeitschritten) fand auch die RAAM-Architektur (ebenso wie die Kollapsarchitektur aus Abschnitt 7.5) innerhalb von $10^6$ Trainingssequenzen keine Lösung. Für praktische Anwendungen größeren Maßstabs ist also die weniger elegante, aber erfolgsträchtigere Prediktorenhierarchie aus Abschnitt 7.3 vorzuziehen.


next up previous contents
Nächste Seite: SCHLUSSBEMERKUNGEN Aufwärts: KONTINUIERLICHE GESCHICHTSKOMPRESSION Vorherige Seite: ARCHITEKTUR UND ZIELFUNKTIONEN   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite