next up previous contents
Nächste Seite: Markov-Prozesse Aufwärts: Die Art der verwendeten Vorherige Seite: Neuronale Netze und das   Inhalt

Statische und dynamische Lernalgorithmen und Lernaufgaben

Die Möglichkeit der internen Rückkopplung allein reicht natürlich nicht aus, um aus einem Netzwerk vernünftige algorithmische Dynamik herauszuholen. Man braucht auch einen Lernalgorithmus, der die Gewichte so adjustiert, daß `die richtigen' Ereignisse im Kurzzeitgedächtnis gespeichert werden. Es gibt zwar eine ganze Reihe von Lernalgorithmen für Netzwerke mit interner Rückkopplung. Fast alle dieser Algorithmen funktionieren jedoch nur dann, wenn das Netzwerk bei stationären Eingaben stets in einen Gleichgewichtszustand gerät. Fast alle dieser Algorithmen sind damit statische Algorithmen, trotz des Vorhandenseins interner Rückkopplung.

Es kommt also darauf an, was ein NN mit seiner internen Rückkopplung anfängt (vorausgesetzt, es hat überhaupt eine). Erst in jüngster Zeit beginnt sich die Aufmerksamkeit auf wirklich dynamische Lernalgorithmen zu richten.

Dynamische Algorithmen zeichnen sich dadurch aus, daß sie für Netzwerke tauglich sind, deren Ein- und Ausgaben sich kontinuierlich ändern. Es ist das Ein-/Ausgabeverhalten eines Netzes und die Natur des Lernproblems, die uns einen Algorithmus dynamisch oder statisch nennen läßt. Es ist nicht die eventuell vorhandene interne Netzwerkdynamik (erzeugt durch etwaige interne Rückkopplung).


next up previous contents
Nächste Seite: Markov-Prozesse Aufwärts: Die Art der verwendeten Vorherige Seite: Neuronale Netze und das   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite