next up previous contents
Nächste Seite: Intuitive Erklärung Aufwärts: Der grundlegende Algorithmus Vorherige Seite: Der grundlegende Algorithmus   Inhalt

Zusammenfassung

Verbindungen zu Netzknoten, die im Moment des erfolgreichen Abschlusses einer extern gestellten Aufgabe aktiv sind, werden etwas gestärkt, sie erhalten ``Gewichtssubstanz'' von der Umgebung. Wie nehmen nun diejenigen Gewichte, die eventuell zu früheren Zeitpunkten in maßgeblicher Weise zum späteren Erfolg beitrugen, am Lernprozeß teil? Jede Verbindung, die irgendwann Aktivationsinformation von einem Netzknoten zum nächsten leiten darf, muß dafür ``zahlen'' in Form von etwas Gewichtssubstanz, welche an diejenigen Verbindungen verteilt wird, die den Quellknoten der zahlenden Verbindung überhaupt erst aktiviert haben. Dieser durch lokalen Wettbewerb benachbarter Netzknoten unterstützte ``Eimerketten''-Mechanismus etabliert rekursive Abhängigkeiten zwischen sukzessiv leitenden Verbindungen. Nur solche Eimerketten, die zum erfolgreichen Abschluß einer Aktionssequenz beitragen, können sich auf Dauer durchsetzen [50].

Das Schema wird als `neuronale Eimerkette' und gelegentlich auch als `A1' bezeichnet werden. Weiter unten werden wir sehen, daß es verschiedene Möglichkeiten gibt, Lehrinformation für die neuronale Eimerkette zur Verfügung zu stellen: $A1$ ist der Vater einer Klasse von Lernalgorithmen, die sich durch den Grad ihrer Überwachtheit unterscheiden.



Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite