Genau dafür jedoch ist gelenkte Aufmerksamkeit gut: Aufmerksamkeit sollte auf diejenigen Teile der visuellen Szene gerichtet werden, welche detailliertere Information über die weitere Strategie für den Zielfindungsprozeß preisgeben können. 's Hauptaufgabe besteht darin, in diejenigen Regionen der Pixelebene zu leiten, die eine Trajektorienfortführung mit infomierteren Bewegungen gestatten. (Beispiel: Man kann nicht genau vorhersagen, was man sehen wird, wenn man seine Augen auf die Zimmertür richtet. Man schafft allerdings die Voraussetzungen, um mit Hilfe weiterer Augenbewegungen das Gesicht der eintretenden Person zu erkennen.)
Würden die Dinge, auf die man seine Aufmerksamkeit richtet, niemals unerwartete Information liefern, so hätte das ganze Konzept der selektiven Aufmerksamkeit keinen Sinn. Man könnte das auch so formulieren: Wäre die Situation so, daß man darauf trainieren könnte, stets perfekte Voraussagen zu machen, würde seine Existenzberechtigung verlieren. Dann würde nämlich schon ein einzelnes Netzwerk ausreichen, die gesamte Information über die Umgebung zu speichern. Für alle interessanten Fälle darf das Modellnetzwerk gar nicht perfekt gemacht werden können.
Im Gegensatz zum `truck backer upper' [34] ist es also nicht beabsichtigt, zu einem perfekten Vorhersager zu machen, dessen Ausgaben die Eingaben von der Umgebung ersetzen könnten (in diesem Fall würde im Vergleich zum statischen Musterfindungsansatz nicht viel zu gewinnen sein). Vielmehr reicht es aus, wenn die inneren Produkte der auf einem ungenauen Modell beruhenden approximierten Gradienten für und der auf einem hypothetischen exakten Modell beruhenden exakten Gradienten dazu tendieren, positiv zu sein.
Ein erklärtes Ziel dieses Beitrags ist, zu zeigen, daß ungenaue Modelle zu perfekten Lösungen beitragen können.