Nächste Seite: BESCHRÄNKUNGEN UND ERWEITERUNGEN
Aufwärts: ABLEITUNG DER ALGORITHMEN
Vorherige Seite: On-Line VERSUS Off-Line
  Inhalt
Statt der RTRL-inspirierten obigen Methode könnte man sich in
Anlehnung an Kapitel 2 auch eines BPTT-inspirierten Verfahrens bedienen.
In diesem Fall hält man sich bequemerweise einen Aktivationskeller
für jeden Knoten in
.
Auch die Grundidee des in Sektion 2.4 vorgestellten
-Verfahren läßt
sich nach entsprechender Modifikation auf die
auf schnellen Gewichten
basierenden
Architekturen
anwenden.
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite