Zum Zeitpunkt der Sequenz
ist
die (weiter unten zu definierende) Eingabe eines
Autoassoziators
mit
versteckten Knoten,
Eingabeknoten, und
Ausgabeknoten.
's interner Zustandsvektor (ablesbar von einem
`Flaschenhals' versteckter Knoten) heißt
.
's
-dimensionaler Ausgabevektor
wird mit
bezeichnet. Zu jedem Zeitschritt
versucht
mittels BP, seine eigene Eingabe zu rekonstruieren.
's Zielfunktion ist dabei
Zum Zeitpunkt der Sequenz
erhält ein azyklisches BP-Netz
den Vektor
als Eingabe.
Um die Dinge nicht über Gebühr zu verkomplizieren, nehmen
wir auf (theoretisch eigentlich notwendige) eindeutige
Zeitrepräsentationen keine Rücksicht.
's
-dimensionaler Ausgabevektor
soll nach
der Trainingsprozedur die Wahrscheinlichkeitsverteilung der
möglichen
approximieren. Daher wird
so
normalisiert,
daß stets
gilt (siehe z.B. Abschnitt 5.3).
Für
sind
und
folgendermaßen definiert:
![]() |
Der Effekt dieses Vorgehens ist: Solange sich die nächste
Eingabe aus der vorherigen Eingabe und dem vorherigen
reduzierten Zustand als (nahezu) vorhersagbar erweist,
bleibt die Eingabe des Autoassoziators im wesentlichen invariant.
Nur die wirklich unerwarteten Ereignisse generieren
neue Zielwerte für - damit wird
dazu angehalten, ausschließlich informationstragende Ereignisse
in seine
internen Repräsentationen einzubinden.
Es sollte erwähnt werden, daß obige Methode wiederum
nur eine von mehreren
Möglichkeiten darstellt, das grundlegende Prinzip zu
implemetieren.