Nächste Seite: Wie implementiert man adaptive
Aufwärts: Dynamische adaptive selektive Aufmerksamkeit
Vorherige Seite: Dynamische adaptive selektive Aufmerksamkeit
  Inhalt
Man vergegenwärtige sich nochmals die Arbeitsweise von A2:
Zu jedem Zeitpunkt versucht A2, die Eingaben zum
nächsten Zeitpunkt vollständig vorherzusagen. Der für
A2 geforderte Gradientenabstieg profitiert zwar von dieser
Arbeitsweise. Es scheint aber angebracht, das Konzept des
allgemeinen raumzeitlichen
Gradientenabstiegs selbst in Frage zu stellen:
Für viele Zwecke genügt es oft, nur einen kleinen Teil
des Zustands der Umgebung als relevant
für die Erreichung des gegenwärtigen Ziels anzusehen. Die
schwierige Frage lautet: Zu welchem Zeitpunkt sind
welche Eingaben relevant und welche nicht?
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite