Für jeden Repräsentationsknoten
führen wir
ein zusätzliches azyklisches adaptives (im allgemeinen nicht-lineares)
Prediktornetzwerk ein.
Beim -ten Eingabevektor ist
's Eingabevektor die
-dimensionale Konkatenation aller Ausgaben
aller Repräsentationsknoten .
sieht also alle Repräsentationsknoten außer dem
von
vorherzusagenden Knoten mit Nummer . Siehe Abbildung 6.1.
's ein-dimensionale Ausgabe
wird mittels BP daraufhin trainiert, sich dem bedingten Erwartungswert
anzugleichen.
Dieses Ziel kann dadurch erreicht werden, daß
man die altbekannte Zielfunktion
(6.2) |
Das ist schon die grundlegende Topologie, die für alle im Rest dieses Kapitels auftretenden Performanzmaße und Algorithmen gleichbleiben wird. Die Prediktoren dienen dazu, die Redundanz unter den Repräsentationsknoten zu messen. Mit Hilfe der (bezüglich ihrer Eingaben differenzierbaren) Prediktoren lassen sich nun zusätzliche differenzierbare Zielfunktionen für die Repräsentationsknoten definieren (siehe Abschnitte 6.3 und 6.4), so daß diese gedrängt werden, den drei Kriterien aus Abschnitt 6.1 Genüge zu tun und faktorielle Eingabecodierungen zu entdecken. Allen diesen zusätzlichen Zielfunktionen für die Repräsentationsmodule ist eines gemeinsam: Sie zwingen die Codeknoten, die wechselseitige Vorhersagbarkeit durch die Prediktoren zu minimieren.
Jeder Repräsentationsknoten versucht dabei, aus der Umgebung irgendwelche Eigenschaften zu extrahieren, so daß keine Kombination von Knoten Information (im Shannonschen Sinne) über den verbleibenden Knoten trägt. Mit anderen Worten: Keine auf der Kombination von Repräsentationsknoten basierende Vorhersage des verbleibenden Knotens sollte höhere Qualität aufweisen als eine Vorhersage, die ohne Wissen über die Knoten auskommt. Im folgenden werde ich dieses Prinzip das Prinzip der intra-repräsentationellen Vorhersagbarkeitsminimierung oder kürzer das Prinzip der Vorhersagbarkeitsminimierung nennen.
Dem Prinzip der Vorhersagbarkeitsminimierung folgend versucht jeder Repräsentationsknoten, die statistischen Eigenschaften der Umgebung dergestalt auszunützen, daß er sich selbst vor Vorhersagbarkeit schützt. Jedes Repräsentationsmodul `will' sich auf Aspekte der Umgebung konzentrieren, die unabhängig von denjenigen abstrakten Umgebungseigenschaften sind, auf die sich die Aufmerksamkeit der restlichen Module lenkt.