Dynamische Aufmerksamkeit wird in unserem Beispiel
durch externe
Rückkopplung implementiert: Ein Steuernetzwerk steuert
sequentielle Bewegungen eines `Fokus' auf einer `visuellen'
Eingabeebene.
Im Gegensatz zu dem im letzten Unterabschnitt
beschriebenen allgemeinen Aufmerksamkeitslenker
ist der Einfluß, den das System auf seine
Eingaben nehmen kann, durch verschiedene Randbedingungen
eingeschränkt: Zum Beispiel besteht der Fokus immer aus derselben
Anzahl von Eingabeknoten und kann seine Topologie nicht ändern.
Allerdings ist die Generalisierung auf den allgemeineren
Fall trivial, zumindest was die Beschreibung anbetrifft.
Der Fokus liefert hohe Auflösung in seinem physikalischen Zentrum
und niedrige Auflösung im Randbereich. Motorische Aktionen
wie `schiebe Fokus 15 Pixel nach rechts' oder
`rotiere Fokus um 9 Grad' werden durch lineare
Transformationen der Aktivationen
von 's Ausgabeknoten gesteuert. Die Aktivationen der
Ausgabeknoten zu einem gegebenen Zeitschritt
führen also in der Regel zu neuen Aktivationen
für die Eingabeknoten zum nächsten Zeitschritt. So kommt
die externe Rückkopplung ins Spiel.
Die gewünschte finale Eingabe
am Ende
einer von zu generierenden Fokustrajektorie
ist ein Aktivationsmuster, das gerade einem zu findenden
Ziel in einer durch die Pixelebene
gegebenen visuellen Szene entspricht. Die
Aufgabe für
besteht also darin, in sequentieller Manier
Fokusbewegungen zu erzeugen, und zwar so, daß
unabhängig von der Startposition und der Ausgangslage
des Fokus stets das Zielobjekt
in der Szene gefunden wird. Die Schwierigkeit besteht wieder einmal
darin, daß kein Lehrer Aussagen über günstige Aktivationen
der `Augenmuskulatur' zu bestimmten Zeitpunkten zur
Verfügung stellt.
's einzige Fehlerinformation am Ende
eines sequentiellen Erkennungsprozesses ist durch den
Unterschied zwischen der gewünschten finalen Eingabe und
der tatsächlichen finalen Eingabe gegeben. (Die
Regelungstheorie nennt das ein `terminales Steuerproblem'). Die
Aufgabe schließt ein komplexes raumzeitliches Lernproblem
und ein Aufmerksamkeitslenkungsproblem mit ein.
Zum Lernen verwenden wir eine im Vergleich zu A2
weniger
allgemeine, dafür aber
vom Berechnungsaufwand her günstigere Implementierung des
Systemidentifikationsprinzips.
Ein statisches Modellnetzwerk lernt zunächst, ein Modell der sichtbaren
externen Dynamik (erzeugt durch mögliche Fokusbewegungen)
zu repräsentieren. Der `unfolding-in-time' Algorithmus
für Gradientenabstieg in dynamischen rekurrenten Netzen
(hier war er trotz seiner nicht vorhandenen
zeitlichen Lokalität anwendbar, siehe auch Kapitel 2)
dient zur Berechnung
von Gradienten für
's Ausgabeknoten (siehe Kapitel 3).