Genau dafür jedoch ist gelenkte Aufmerksamkeit gut:
Aufmerksamkeit sollte auf diejenigen Teile der visuellen
Szene gerichtet werden, welche detailliertere Information über
die weitere Strategie für den Zielfindungsprozeß preisgeben
können. 's Hauptaufgabe besteht darin,
in diejenigen
Regionen der Pixelebene zu leiten, die eine Trajektorienfortführung
mit infomierteren Bewegungen gestatten. (Beispiel: Man kann nicht
genau vorhersagen, was man sehen wird, wenn man seine Augen auf
die Zimmertür richtet. Man schafft allerdings die Voraussetzungen,
um mit Hilfe weiterer Augenbewegungen das Gesicht der eintretenden
Person zu erkennen.)
Würden die Dinge, auf die man seine Aufmerksamkeit richtet,
niemals unerwartete Information liefern, so hätte das ganze Konzept
der selektiven Aufmerksamkeit keinen Sinn. Man könnte das
auch so formulieren: Wäre die Situation so, daß man
darauf trainieren könnte, stets perfekte Voraussagen
zu machen, würde
seine Existenzberechtigung verlieren.
Dann würde nämlich schon ein einzelnes
Netzwerk ausreichen, die
gesamte Information über die Umgebung zu speichern.
Für alle interessanten Fälle darf das Modellnetzwerk
gar nicht perfekt gemacht werden können.
Im Gegensatz zum `truck backer upper' [34] ist
es also nicht beabsichtigt, zu einem perfekten Vorhersager
zu machen, dessen Ausgaben die Eingaben von der Umgebung
ersetzen könnten (in diesem Fall würde im Vergleich zum
statischen Musterfindungsansatz nicht viel zu gewinnen sein).
Vielmehr reicht es aus, wenn die inneren Produkte der
auf einem ungenauen Modell
beruhenden approximierten Gradienten für
und der
auf einem hypothetischen exakten Modell
beruhenden exakten Gradienten
dazu tendieren, positiv zu sein.
Ein erklärtes Ziel dieses Beitrags ist, zu zeigen, daß ungenaue Modelle zu perfekten Lösungen beitragen können.