next up previous contents
Nächste Seite: VORHERSAGBARKEITSMINIMIERUNG Aufwärts: EXTRAKTION VORHERSAGBARER KONZEPTE Vorherige Seite: STEREO-EXPERIMENT   Inhalt

SCHLUSSBEMERKUNGEN ZU 5.5

Verglichen mit den bisherigen Implementierungen von Beckers und Hintons IMAX-Verfahren weisen die oben vorgestellten Methoden zur Extraktion vorhersagbarer Konzepte folgende Vorteile auf: (1) Sie tendieren dazu, einfacher anwendbar zu sein (e.g., inkrementelles `bootstrapping' sukzessiver Lagen ist nicht erforderlich). (2) Sie fordern keine Gaussschen Annahmen über die Verrauschtheit der Ein- und Ausgabesignale. (3) Sie fordern nicht die Maximierung von Funktionen der Determinante der Kovarianzmatrix der Klassifikationskomponenten ($DET$MAX). (4) Wie in Kapitel 6 noch zu sehen sein wird, entsteht durch geeignete Definition von $D_l$ (im Gegensatz zu $DET$MAX) ein Potential zur Auffindung von Klassifikationen mit statistisch voneinander unabhängigen Komponenten (siehe auch Abschnitt 5.4.2). (5) Die Beantwortung der Frage, ob die Aktivationsmuster für Klassifikation und Vorhersage ein und dasselbe repräsentieren, wird durch die neue Methodik trivial. (6) Im direkten experimentellen Vergleich sind gewisse unüberwachte Lernaufgaben innerhalb kürzerer Zeit zu lösen als mittels IMAX, welches noch dazu bestimmte `Tricks' erfordert (siehe Abschnitt 6.6.5).

Es bleibt jedoch experimentell zu untersuchen, ob das Verfahren auch bei komplexeren `Echtweltanwendungen' zu guten Ergebnissen führen kann.


next up previous contents
Nächste Seite: VORHERSAGBARKEITSMINIMIERUNG Aufwärts: EXTRAKTION VORHERSAGBARER KONZEPTE Vorherige Seite: STEREO-EXPERIMENT   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite