Nächste Seite: EIN EXPERIMENT MIT UNBEKANNTEN
Aufwärts: DYNAMISCHE VERBINDUNGEN
Vorherige Seite: BESCHRÄNKUNGEN UND ERWEITERUNGEN
  Inhalt
In Zusammenarbeit mit Klaus Bergner (einem Diplomanden an der TUM)
wurden sowohl die `on-line'-Version als auch die
`off-line'-Version des Algorithmus
getestet (siehe auch [12]). In Fällen, bei denen
beide Versionen anwendbar waren,
zeigte die `off-line'-Version im wesentlichen
dieselbe Performanz wie die `on-line'-Version.
Die folgenden Experimente basieren auf kontinuierlichen
Strömen von Eingabeereignissen (statt auf klar separierten
Trainingssequenzen). Der Beginn einer neuen Trainingssequenz
wurde dem System niemals
explizit mitgeteilt [105].
Dies bedeutet, daß die
`on-line'-Version des Algorithmus verwendet werden mußte
(siehe Abschnitt 3.3.1).
Unterabschnitte
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite