next up previous contents
Nächste Seite: ARCHITEKTUR UND ZIELFUNKTIONEN Aufwärts: KONTINUIERLICHE GESCHICHTSKOMPRESSION MIT RAAMs Vorherige Seite: REKURSIVE AUTO-ASSOZIATIVE GEDÄCHTNISSE   Inhalt

AUCH RAAMS HABEN PROBLEME MIT LANGEN ZEITLÜCKEN

Daniel Prelinger (Diplomand an der TUM) führte mit RAAMs zum Standardproblem (Abschnitt 2.6.4) analoge Experimente durch. Letztere erwiesen, daß RAAMs Zeitlücken zwischen korellierten Ereignissen in den Trainingssequenzen noch überbrücken können, wenn die Anzahl der Zeitschritte 5 nicht übersteigt. Auch RAAMs scheitern in praktischen Anwendungen jedoch an der Aufgabe, in vernünftiger Zeit hinreichend unterschiedliche Repräsentationen von Sequenzen (samt all ihrer Subsequenzen) zu kreieren, wenn diese mehr als 10 Zeitschritte umfassen [75].

Dies liefert die Motivation dafür, RAAMs gemäß dem Prinzip der kontinuierlichen Geschichtskompression dergestalt zu modifizieren, daß sie wesentlich längere Zeitspannen zwischen signifikanten Ereignissen überbrücken können. Der folgende Unterabschnitt zeigt, wie zur Erreichung dieses Zwecks vorzugehen ist.



Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite