next up previous contents
Nächste Seite: DANKSAGUNG Aufwärts: EINFÜHRUNG Vorherige Seite: GLIEDERUNG DER ARBEIT   Inhalt

WIEDERKEHRENDE NOTATION

Soweit nötig, wird jedes Kapitel seine eigenen formalen Bezeichner einführen. Gewisse Symbole werden in den verschiedenen Kapiteln jedoch gleiche oder vergleichbare Bedeutung tragen.

Reelle Vektoren werden durch kursive Kleinbuchstaben dargestellt. Das Superskript $p$ des Vektors $v^p$ zeigt eine Verbindung zum $p$-ten Eingabemuster an.

Sind dynamische Abläufe und zeitlich gedehnte Sequenzen im Spiel, so stellt $v^p(t)$ gewöhnlich den $t$-ten Vektor einer zur $p$-ten Eingabesequenz gehörigen Reihe von Vektoren dar (wir werden stets mit Digitalrechnern angepaßten diskreten Zeitschritten statt mit kontinuierlicher Zeit arbeiten).

Die $i$-te Komponente des Vektors $v$ wird stets mit $v_i$ bezeichnet. $v^p_i(t)$ ist demzufolge die $i$-te Komponente von $v^p(t)$.

Symbole wie $x$, $x^p$, $x^p(t)$ denotieren normalerweise Eingabevektoren, Symbole wie $y$, $y^p$, $y^p(t)$ stehen gewöhnlich für Ausgabevektoren.

$v^T$ (bzw. $Q^T$) repräsentiert die Transponierte des Vektors $v$ (bzw. der Matrix $Q$),

$dim(v)$ bezeichnet die Dimension von $v$,

$\Vert v \Vert = \sqrt{v^T v}$ stellt die Länge von $v$ dar,

`$ \circ $' steht für den Konkatenationsoperator: $v^1 \circ v^2$ ist die Konkatenation der Vektoren $v^1$ und $v^2$,

$Det(Q)$ repräsentiert die Determinante der Matrix $Q$,

$P(A)$ bezeichnet die Wahrscheinlichkeit des Ereignisses $A$,

$P(A \mid B )$ denotiert die bedingte Wahrscheinlichkeit von $A$ unter der Voraussetzung $B$,

$E(Y)$ stellt den Erwartungswert der Zufallsvariable $Y$ dar,

$E(Y \mid X )$ steht bei gegebenem $X$ für den bedingten Erwartungswert von $Y$,

$VAR(Y)= E(Y-E(Y))^2$ repräsentiert die Varianz von $Y$,

$COV(X,Y) = E((Y-E(Y))(X-E(X)))$ bezeichnet die Covarianz der Zufallsvariablen $X$ und $Y$.


next up previous contents
Nächste Seite: DANKSAGUNG Aufwärts: EINFÜHRUNG Vorherige Seite: GLIEDERUNG DER ARBEIT   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite