next up previous contents
Nächste Seite: HERLEITUNG DES ALGORITHMUS Aufwärts: ALGORITHMUS FÜR ÜBERWACHTES LERNEN Vorherige Seite: ALGORITHMUS FÜR ÜBERWACHTES LERNEN   Inhalt

PERFORMANZMASS

Wie stets beim überwachten Lernen wollen wir $E^{total}(n_rn_s)$ minimieren, wobei

\begin{displaymath}
E^{total}(t) = \sum_{\tau = 1}^{t} E(\tau),~~mit~
E(t) = \frac{1}{2} \sum_k (eval_k(t+1))^2.
\end{displaymath}

Der folgende Algorithmus zur Minimierung von $E^{total}$ ist teilweise inspiriert durch die `konventionellen' Lernalgorithmen für rekurrente Netze aus Kapitel 2 sowie durch den Algorithmus für das die Gewichte eines zweiten Netzes manipulierende nicht `selbstreferentielle' Netz aus Kapitel 3. Seine Komplexität übertrifft allerdings die Komplexität der bisher behandelten Algorithmen.



Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite