next up previous contents
Nächste Seite: Dynamik von der trivialen Aufwärts: Statische Netzwerke Vorherige Seite: Statische Netze ohne Rückkopplung   Inhalt

Statische Netzwerke mit interner Rückkopplung

Wie schon verschiedentlich bemerkt, darf ein statisches Netzwerk durchaus interne Rückkopplung erlauben. Voraussetzung ist allerdings, daß die interne Netzwerkdynamik schließlich zu einem stationären Equilibriumszustand führt. Verschiedene Lernalgorithmen für überwachte Equilibriumsnetzwerke wurden vorgeschlagen. Nach unserer Definition von Überwachtheit gehören dazu Hintons und Sejnowskis Boltzmann-Maschine [14] ebenso wie die vor allem bei Physikern beliebten Hopfield-Netzwerke [17] und manche ihrer asymmetrischen Erweiterungen (siehe z.B. [65]). Hopfield-Netzwerke illustrieren, wie man die Hebbsche Regel [12] in überwachter Manier einsetzen kann.

Stellvertretend für alle Equilibriumsnetze betrachten wir in diesem Abschnitt lediglich eine relativ junge Entwicklung: den Gradientenabstiegsalgorithmus für zyklische statische Netzwerke, wie er von Almeida [1] und davon unabhängig von Pineda [38] vorgeschlagen wurde. Auch Rohwer und Forrest haben im selben Jahr ein verwandtes Verfahren beschrieben [43].

Der Algorithmus minimiert für ein einzuspeicherndes Musterpaar $(i,d)$ dieselbe Fehlerfunktion wie konventionelles Back-Propagation: $ \Vert d -x \Vert^{2}$, wobei $x$ tatsächlicher Ausgabevektor und $d$ gewünschter Ausgabevektor ist.

Das Netz kann vollständig rückgekoppelt sein. Natürlich gibt es in voll vernetzten Systemen keine Netzlagen im Sinne obiger Definition mehr: Zu jedem Knoten führen Kantenpfade beliebiger Länge. Dennoch läuft der Algorithmus weitgehend genauso ab wie derjenige für azyklische Netzwerke. Die Aktivationsausbreitungsphase verläuft in mehreren von einem globalen Taktgeber gesteuerten Schritten wie folgt:

Ein Eingabemuster wird an bestimmten Netzknoten angelegt, die Aktivation der Eingabeknoten ist gleich ihrer externen Eingabe und ändert sich von nun an nicht mehr. Jeder Knoten $k$, der kein Eingabeknoten ist, berechnet synchron mit allen anderen die gewichtete Summe der Aktivationen aller Knoten, von denen eine Verbindung auf $k$ führt. Das Resultat wird der Aktivierungsfunktion übergeben, welche zur Berechnung von $k$'s neuer Aktivation dient. Dieses Vorgehen wird iteriert, bis sich bei aufeinanderfolgenden Iterationen keine Knotenaktivation mehr signifikant ändert.

Anschließend findet die Fehlerpropagierungsphase statt:

Die Richtungen aller Verbindungen im Netz werden umgekehrt. Die Fehlerdifferenzen der Ausgabeknoten werden multipliziert mit der Ableitung der Aktivierungsfunktion an der Stelle, die durch die Aktivationsausbreitungsphase bestimmt wurde. Das Fehlersignal der Ausgabeknoten ist damit definiert. Jeder Knoten $k$, der kein Eingabeknoten ist, berechnet nun die gewichtete Summe der Fehlersignale von allen Knoten, von denen eine Verbindung auf $k$ führt. Um sein eigenes Fehlersignal zu erhalten, multipliziert $k$ das Resultat mit der Ableitung der Aktivierungsfunktion an der Stelle, die durch die Aktivationsausbreitungsphase bestimmt wurde. Dieses Vorgehen wird iteriert, bis sich bei aufeinanderfolgenden Iterationen keine Fehlersignale mehr signifikant ändern.

Schließlich ändert sich jedes Gewicht proportional zur Aktivation seines Quellknotens und zum Fehlersignal seines Zielknotens.

Führt die Aktivationsausbreitungsphase in ein Equilibrium, so auch die Fehlerpropagierungsphase. Dies ist eine Konsequenz der Tatsache, daß die Gewichtsmatrix für die Rückwärtsphase der Transponierten der Gewichtsmatrix für die Vorwärtsphase entspricht. Da die Stabilität eines Systems nur von den Eigenwerten seiner Gewichtsmatrix abhängt und die Eigenwerte einer Matrix gleich den Eigenwerten der Transponierten sind, ergibt sich obige Aussage [1]. Man beachte erneut die fast vollständige Symmetrie zwischen Vorwärts- und Rückwärtsausbreitung.


next up previous contents
Nächste Seite: Dynamik von der trivialen Aufwärts: Statische Netzwerke Vorherige Seite: Statische Netze ohne Rückkopplung   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite