Nächste Seite: Dynamische Programmierung
Aufwärts: Potentiell relevante nicht-neuronale Methoden
Vorherige Seite: Potentiell relevante nicht-neuronale Methoden
  Inhalt
Ist es nicht möglich oder ist man nicht gewillt,
Performanzgradienten für ein lernendes
System zu bestimmen, bietet einem
die erschöpfende Suche den ersten Ausweg an. Kann ein lernendes
System nur endlich viele interne Zustände annehmen, und sind
die Prozesse, die es auszuführen lernen soll, von beschränkter zeitlicher
Dauer (dies, um Schwierigkeiten mit dem Halteproblem zu
vermeiden), so findet erschöpfende Suche stets `beste' Lösungen.
Man mag argumentieren, daß erschöpfende Suche im Gewichtsraum eines
neuronalen Netzes schon prinzipiell nicht möglich ist, da Gewichte
durch reelle Zahlen dargestellt werden und
somit ein Potential für überabzählbar viele potentielle Zustände
vorhanden ist. Dem ist entgegenzuhalten, daß für alle
gebräuchlichen Netzwerktypen und Aktivierungsfunktionen
gewisse sich auf endlich viele
Stützpunkte abstützende Varianten der erschöpfenden
Suche zumindest im Prinzip erfolgversprechend wären. Dies liegt daran,
daß `fast immer' sehr nahe beieinanderliegende
Gewichtsvektoren praktisch identisches
Ausgabeverhalten zeitigen. (Man beachte, daß dem Problem
chaotischer Dynamik durch die Einschränkung von Zeitdauern aus dem
Weg gegangen wurde.) Dennoch
sind auch diese Varianten erschöpfender Suche
für größere Netzwerke zu zeitaufwendig: Der Suchaufwand wächst
exponentiell mit der Anzahl der Gewichte.
Nächste Seite: Dynamische Programmierung
Aufwärts: Potentiell relevante nicht-neuronale Methoden
Vorherige Seite: Potentiell relevante nicht-neuronale Methoden
  Inhalt
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite