next up previous contents
Nächste Seite: Interne Rückkopplung: Dynamische Netzwerke Aufwärts: Statische Netzwerke Vorherige Seite: Statische Netzwerke mit interner   Inhalt

Dynamik von der trivialen Art

In den letzten beiden Abschnitten wurden Algorithmen zur statischen Musterassoziation beschrieben. Mit solchen Algorithmen läßt sich eine triviale Art von dynamischem Verhalten erlernen: Man trainiert ein Netzwerk mittels einer geordneten Sequenz von Musterpaaren $(i_{t},d_{t}),t \in \left\{ 1, \ldots, n \right\} $, bei der die Ausgabe $d_{t}$ gleich der Eingabe $i_{t+1}$ ist, für $ t \in \left\{ 1, \ldots, n-1 \right\} $. Im Arbeitsmodus kopiert man zwischen aufeinanderfolgenden Zeitschritten die Ausgaben eines solchermaßen trainierten Netzwerkes zurück auf seine Eingabeknoten. Selbstverständlich lassen sich auf diese Weise niemals über mehr als einen Zeitschritt reichenden temporalen Abhängigkeiten erreichen: Die Ausgabe zur Zeit $t+1$ ist durch die Ausgabe zur Zeit $t$ vollständig determiniert.

Keinen qualitativen Fortschritt erzielt man, wenn man `Zeitfenster' in der Eingabe zuläßt. (Eine ganze Reihe von Ansätzen zur temporalen Mustererkennung beruht auf dem Zeitfensterprinzip (manchmal läuft es auch unter einem anderen Namen wie z.B. `distribution of delays' [13]).) Zeitfenster erfordern, die Menge der Eingabeknoten aufzublähen und Eingaben aus den jeweils letzten $k$ Zeitschritten für die Generierung von Ausgaben zu verwenden. Solch ein Vorgehen kann sich als nützlich erweisen, wenn bekannt ist, daß man wirklich nie mehr als $k$ vergangene Zeitschritte berücksichtigen muß, um korrekte Ausgaben zu erzielen. Selbst in diesem Fall wird die Methode jedoch in der Regel ineffizient sein. Für den allgemeinen Fall bietet sie keine Perspektive.


next up previous contents
Nächste Seite: Interne Rückkopplung: Dynamische Netzwerke Aufwärts: Statische Netzwerke Vorherige Seite: Statische Netzwerke mit interner   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite