next up previous contents
Nächste Seite: ABLEITUNG DER ALGORITHMEN Aufwärts: DYNAMISCHE VERBINDUNGEN Vorherige Seite: ARCHITEKTUR 2   Inhalt

PERFORMANZMASS

Wie bei den rekurrenten Netzen des zweiten Kapitels wollen wir auch mit der neuen Architektur Fehlertrajektorien minimieren. Der Gradient des Fehlers über alle Trainingssequenzen ist gleich der Summe der Fehlergradienten. Daher interessiert uns wieder nur der während einer Sequenz betrachtete Fehler

\begin{displaymath}
\bar{E}= \sum_t E(t) ,
\end{displaymath}

wobei

\begin{displaymath}E(t) = \frac{1}{2} \sum_i e_i^2(t), \end{displaymath}


\begin{displaymath}e_i(t) = d_i(t)-y_i(t). \end{displaymath}

$d(t)$ ist dabei erneut der von einem externen Lehrer vorgegebene Ausgabevektor.



Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite