next up previous contents
Nächste Seite: SCHLUSSBEMERKUNGEN Aufwärts: EXPERIMENTE Vorherige Seite: EXPERIMENTE: PRAKTISCHE GRENZEN REKURRENTER   Inhalt

ZWEI PROBLEME DER OBIGEN ALGORITHMEN

Das erste Problem der Algorithmen aus den Abschnitten 2.3 bis 2.5 ist das folgende: Je mehr Zeit zwischen dem Auftreten eines Ereignisses und der Generierung eines durch dieses Ereignis bedingten Fehlersignals verstreicht, desto stärker wird das Fehlersignal i.a. auf seiner `Reise in die Vergangenheit' gestreut, und desto unsignifikanter werden die durch das Fehlersignal hervorgerufenen Gewichtsänderungen (Hochreiter [37] beschreibt für aus nur wenigen Gewichten bestehende Netzwerke im Rahmen einer detaillierteren Analyse u.a. den exponentiellen Schwund der Stärke von Fehlersignalen in Abhängigkeit von der Anzahl der Rückpropagierungsschritte). [37] attackierte dieses Problem durch Einführung von speziellen Knoten mit auf sich selbst rückgekoppelten Verbindungen mit fixen, im voraus berechneten geeigneten Gewichten. Mozer erzielte einen vergleichbaren Effekt durch die Einführung spezieller Aktivierungsfunktionen [60][61].

Keiner dieser Ansätze löst allerdings das folgende schwerwiegende zweite Problem, welches darin besteht, daß die Aktivation jedes Eingabeknotens von den gradientenbasierten Algorithmen zu jedem Zeitpunkt in unspezifischer Weise gleich stark berücksichtigt wird, um das Problem des `temporal credit assignment's [55] zu lösen. Keiner der bisher behandelten Algorithmen versucht in irgendeiner Weise, die von einem Eingabesignal übermittelte Information zu messen. Keiner der bekannten (oder bisher in dieser Arbeit behandelten) Algorithmen lernt, unsignifikante (redundante) Eingaben von potentiell signifikanten Eingaben zu unterscheiden und sich selektiv auf informationstragende Ereignisse zu konzentrieren, um so Zeit und Ressourcen zu sparen.

Dies liefert die Motivation für Kapitel 7, welches neuartige sequenzverarbeitende Architekturen samt zugehörigen Zielfunktionen beschreibt, denen es keine Schwierigkeiten bereitet, Aufgaben wie obige Standardaufgabe zu lösen, bei denen die im vorliegenden Kapitel angegebenen Verfahren in der Praxis scheitern. Das heißt allerdings nicht, daß die oben vorgestellten Algorithmen überflüssig wären: In der Tat werden wir die gradientenbasierten Netze des vorliegenden Kapitels in Kapitel 7 als Untermodule eines umfangreicheren Systems einsetzen.


next up previous contents
Nächste Seite: SCHLUSSBEMERKUNGEN Aufwärts: EXPERIMENTE Vorherige Seite: EXPERIMENTE: PRAKTISCHE GRENZEN REKURRENTER   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite