next up previous contents
Nächste Seite: KONTINUIERLICHE GESCHICHTSKOMPRESSION MIT RAAMs Aufwärts: UNÜBERWACHTE GESCHICHTSKOMPRESSION Vorherige Seite: SCHRANKEN DER KOLLAPS-ARCHITEKTUR   Inhalt

KONTINUIERLICHE GESCHICHTSKOMPRESSION

Das oben verwendete Prinzip zur Geschichtskompression definiert Vorhersagefehler oder `Mismatche' in einer binären Art und Weise: Jeder Eingabeknoten, dessen Aktivation zu einem bestimmten Zeitpunkt nicht vorhersagbar war, zeigt ein unerwartetes Ereignis an. Jedes unerwartete Ereignis provoziert die Aktualisierung des internen Zustandes eines Prediktors auf höherer Ebene. Es gibt kein Konzept eines partiellen `Mismatches', oder einer `nahezu richtigen' Vorhersage. Es ist nicht möglich, ein Netz der höheren Ebene in Antwort auf ein `beinahe erwartetes' Ereignis `nur ein klein wenig' zu aktualisieren.

`Kontinuierliche Geschichtskompression' [119] begegnet dieser Kritik durch die folgenden Ideen (wir halten uns an die Notation aus Abschnitt 7.2):

Wir bedienen uns lokaler Eingaberepräsentation. Die Komponenten von $z^p(t)$ werden so normiert, daß ihre Summe 1 ergibt (siehe z.B. Abschnitt 5.3). $z^p(t)$ wird als Vorhersage der Wahrscheinlichkeitsverteilung der möglichen Eingaben $x^p(t+1)$ interpretiert: $z^p_j(t)$ ist die Vorhersage der Wahrscheinlichkeit, daß $x^p_j(t+1)$ gleich 1 ist.

Die Entropie der Ausgabeknoten zur Zeit $t$,

\begin{displaymath}
- \sum_j z^p_j(t)log~z^p_j(t),
\end{displaymath} (7.6)

läßt sich als Maß der Sicherheit des Prediktors ansehen. (7.7) ist maximal, wenn jedes mögliche Ereignis mit gleicher Wahrscheinlichkeit erwartet wird (höchste Unsicherheit des Prediktors). (7.7) ist minimal, wenn ein einziges Ereignis nahezu mit Wahrscheinlichkeit 1 erwartet wird (höchste Sicherheit des Prediktors).

Wieviel Information (relativ zum gegenwärtigen Prediktor) wird dem lernenden System durch das Ereignis $x^p_j(t+1) = 1$ übermittelt? Nach Shannon [125] lautet die Antwort

\begin{displaymath}-log~z^p_j(t).\end{displaymath}

Im folgenden werden wir eine Architektur entwerfen, die (im Shannonschen Sinne) informative Ereignisse stärkeren Einfluß auf die Geschichtsrepräsentation nehmen läßt als weniger informative Ereignisse. Die `Stärke' einer Netzwerkaktualisierung ist dabei eine monoton wachsende Funktion der vom beobachteten Ereignis übermittelten Information.



Unterabschnitte
next up previous contents
Nächste Seite: KONTINUIERLICHE GESCHICHTSKOMPRESSION MIT RAAMs Aufwärts: UNÜBERWACHTE GESCHICHTSKOMPRESSION Vorherige Seite: SCHRANKEN DER KOLLAPS-ARCHITEKTUR   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite