Nächste Seite: SCHLUSSBEMERKUNGEN
Aufwärts: EXPERIMENTE
Vorherige Seite: EXPERIMENTE: PRAKTISCHE GRENZEN REKURRENTER
  Inhalt
Das erste Problem der Algorithmen aus den Abschnitten 2.3 bis 2.5
ist das folgende: Je mehr Zeit
zwischen dem Auftreten eines Ereignisses
und der Generierung eines durch dieses Ereignis bedingten
Fehlersignals verstreicht, desto stärker wird das
Fehlersignal i.a. auf seiner `Reise in die Vergangenheit'
gestreut, und desto unsignifikanter werden die durch
das Fehlersignal hervorgerufenen Gewichtsänderungen
(Hochreiter [37] beschreibt
für aus nur wenigen Gewichten bestehende Netzwerke
im Rahmen einer detaillierteren Analyse u.a. den
exponentiellen Schwund der Stärke von Fehlersignalen in
Abhängigkeit von der Anzahl der Rückpropagierungsschritte).
[37]
attackierte dieses Problem durch Einführung von speziellen Knoten
mit auf sich selbst rückgekoppelten Verbindungen mit
fixen, im voraus berechneten geeigneten Gewichten.
Mozer erzielte einen vergleichbaren Effekt durch
die Einführung spezieller Aktivierungsfunktionen
[60][61].
Keiner dieser Ansätze löst allerdings das
folgende schwerwiegende zweite Problem,
welches darin besteht, daß die Aktivation jedes Eingabeknotens
von den gradientenbasierten Algorithmen
zu jedem Zeitpunkt in unspezifischer Weise gleich stark berücksichtigt wird,
um das Problem des `temporal credit assignment's
[55]
zu lösen. Keiner der bisher behandelten Algorithmen
versucht in irgendeiner Weise, die von einem Eingabesignal
übermittelte Information
zu messen. Keiner der bekannten (oder
bisher in dieser Arbeit behandelten) Algorithmen
lernt, unsignifikante (redundante) Eingaben von potentiell
signifikanten Eingaben zu unterscheiden und sich selektiv
auf informationstragende Ereignisse zu konzentrieren, um
so Zeit und Ressourcen zu sparen.
Dies liefert die Motivation für Kapitel 7, welches neuartige
sequenzverarbeitende Architekturen samt zugehörigen Zielfunktionen
beschreibt, denen es keine Schwierigkeiten bereitet, Aufgaben
wie obige Standardaufgabe zu lösen, bei denen die im vorliegenden
Kapitel angegebenen Verfahren in der Praxis scheitern. Das
heißt allerdings
nicht, daß die oben vorgestellten Algorithmen überflüssig wären:
In der Tat werden wir die gradientenbasierten Netze
des vorliegenden Kapitels in Kapitel 7 als Untermodule eines umfangreicheren
Systems einsetzen.
Nächste Seite: SCHLUSSBEMERKUNGEN
Aufwärts: EXPERIMENTE
Vorherige Seite: EXPERIMENTE: PRAKTISCHE GRENZEN REKURRENTER
  Inhalt
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite