Nächste Seite: Intuitive Erklärung
Aufwärts: Der grundlegende Algorithmus
Vorherige Seite: Der grundlegende Algorithmus
  Inhalt
Verbindungen zu Netzknoten, die im Moment
des erfolgreichen Abschlusses einer extern gestellten Aufgabe
aktiv sind, werden etwas gestärkt, sie erhalten ``Gewichtssubstanz''
von der Umgebung. Wie nehmen nun diejenigen Gewichte,
die eventuell zu früheren Zeitpunkten in maßgeblicher Weise
zum späteren Erfolg beitrugen, am Lernprozeß teil? Jede
Verbindung, die irgendwann Aktivationsinformation von einem Netzknoten
zum nächsten leiten darf, muß dafür ``zahlen'' in Form von etwas
Gewichtssubstanz, welche an diejenigen Verbindungen verteilt
wird, die den Quellknoten der zahlenden Verbindung
überhaupt erst aktiviert haben. Dieser durch lokalen
Wettbewerb benachbarter Netzknoten unterstützte
``Eimerketten''-Mechanismus
etabliert rekursive Abhängigkeiten zwischen sukzessiv leitenden
Verbindungen.
Nur solche Eimerketten, die zum erfolgreichen Abschluß
einer Aktionssequenz beitragen, können sich auf Dauer durchsetzen
[50].
Das Schema wird als `neuronale
Eimerkette' und gelegentlich auch als `A1' bezeichnet werden.
Weiter unten werden wir sehen, daß es
verschiedene
Möglichkeiten gibt, Lehrinformation für die neuronale Eimerkette zur
Verfügung zu stellen:
ist der Vater
einer Klasse von Lernalgorithmen, die sich durch den Grad ihrer
Überwachtheit unterscheiden.
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite