Nächste Seite: ABSCHLIESSENDE BEMERKUNGEN ZU KAPITEL
Aufwärts: ALGORITHMUS FÜR ÜBERWACHTES LERNEN
Vorherige Seite: PERFORMANZMASS
  Inhalt
Mit der Kettenregel berechnen wir Gewichtsinkremente für
die Initialgewichte
gemäß
 |
(8.12) |
wobei
eine konstante positive Lernrate bezeichnet. Damit
erhalten wir einen
exakten gradientenbasierten Algorithmus zur Minimierung von
unter der `selbstreferentiellen' durch (8.8) bis (8.11) gegebenen
Dynamik. Um den Schreibaufwand zu reduzieren, seien folgende
(teilweise durch [148] inspirierte)
Kurzschreibweisen eingeführt:
Für alle Knoten
und alle Gewichte
schreiben wir
 |
(8.13) |
Für alle Verbindungspaare
schreiben wir
 |
(8.14) |
Man beachte zunächst, daß
 |
(8.15) |
Das verbleibende Problem besteht also in der Berechnung
der
, welche sich durch inkrementelle
Berechnung aller
und
vollziehen läßt, wie wir gleich sehen werden.
Für den Zeitpunkt 1 gilt
 |
(8.16) |
Für
erhalten wir die Rekursion
 |
(8.17) |
 |
(8.18) |
![\begin{displaymath}
w_{ij}(t)~
[~~
g'(\Vert ana(t) - adr(w_{ij})\Vert^2 )
2 \sum_m (ana_m(t) - adr_m(w_{ij})) p_{ab}^{ana_m}(t)
~~]~
~~\}
\end{displaymath}](img915.png) |
(8.19) |
(wobei
das
-te Bit der Adresse von
bezeichnet),
 |
(8.20) |
wobei
 |
(8.21) |
![\begin{displaymath}
2 \bigtriangleup(t-1)~
g'(\Vert mod(t-1) - adr(w_{ij})\Vert^2 )
\sum_m
[mod_m(t-1) - adr_m(w_{ij})]
p_{ab}^{mod_m}(t-1) .
\end{displaymath}](img923.png) |
(8.22) |
Die
und
lassen sich
gemäß den Gleichungen (8.16)-(8.22) inkrementell zu jedem Zeitschritt
aktualisieren, was bedeutet, daß auch
(8.15) und (8.12) inkrementell berechnet werden können.
Die Speicherkomplexität beträgt unabhängig von
der Sequenzlänge
.
Der Berechnungsaufwand pro Zeitschritt beträgt unabhängig von
der Sequenzlänge
. Dies übertrifft bedauerlicherweise
sogar die Berechnungskomplexität von RTRL (siehe Kapitel 2), welche gleich
ist.
Ein weiterer Nachteil (neben der hohen Komplexität)
ist die hohe Anzahl lokaler Minima
der ungewöhnlich komplexen Zielfunktion.
Der Zweck dieses letzten Kapitels der Arbeit besteht jedoch nicht in
der Auffindung des effizientesten oder praktikabelsten
gradientenbasierten `selbstreferentiellen' Lernalgorithmus,
sondern in der Demonstration,
daß solche Algorithmen überhaupt theoretisch möglich
sind.
Offenbar gerät der Algorithmus nicht in eine endlose Rekursion.
Er verwendet Gradientenabstieg, um Gewichtsänderungsalgorithmen
zu finden, die zwar nicht notwendigerweise Gradientenabstieg
betreiben (sondern möglicherweise etwas Raffinierteres), aber
dennoch dazu beitragen,
zu minimieren. Damit läßt sich das Gesamtsystem als
eine `selbstreferentielle' Erweiterung der `konventionelleren'
Algorithmen aus Kapitel 2 ansehen.
Beschleunigungsverfahren à la Kapitel 2 sind möglich,
für die Zwecke des vorliegenden Kapitels jedoch nicht von Belang.
Nächste Seite: ABSCHLIESSENDE BEMERKUNGEN ZU KAPITEL
Aufwärts: ALGORITHMUS FÜR ÜBERWACHTES LERNEN
Vorherige Seite: PERFORMANZMASS
  Inhalt
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite