next up previous contents
Nächste Seite: Dynamische Programmierung Aufwärts: Potentiell relevante nicht-neuronale Methoden Vorherige Seite: Potentiell relevante nicht-neuronale Methoden   Inhalt

Erschöpfende Suche

Ist es nicht möglich oder ist man nicht gewillt, Performanzgradienten für ein lernendes System zu bestimmen, bietet einem die erschöpfende Suche den ersten Ausweg an. Kann ein lernendes System nur endlich viele interne Zustände annehmen, und sind die Prozesse, die es auszuführen lernen soll, von beschränkter zeitlicher Dauer (dies, um Schwierigkeiten mit dem Halteproblem zu vermeiden), so findet erschöpfende Suche stets `beste' Lösungen.

Man mag argumentieren, daß erschöpfende Suche im Gewichtsraum eines neuronalen Netzes schon prinzipiell nicht möglich ist, da Gewichte durch reelle Zahlen dargestellt werden und somit ein Potential für überabzählbar viele potentielle Zustände vorhanden ist. Dem ist entgegenzuhalten, daß für alle gebräuchlichen Netzwerktypen und Aktivierungsfunktionen gewisse sich auf endlich viele Stützpunkte abstützende Varianten der erschöpfenden Suche zumindest im Prinzip erfolgversprechend wären. Dies liegt daran, daß `fast immer' sehr nahe beieinanderliegende Gewichtsvektoren praktisch identisches Ausgabeverhalten zeitigen. (Man beachte, daß dem Problem chaotischer Dynamik durch die Einschränkung von Zeitdauern aus dem Weg gegangen wurde.) Dennoch sind auch diese Varianten erschöpfender Suche für größere Netzwerke zu zeitaufwendig: Der Suchaufwand wächst exponentiell mit der Anzahl der Gewichte.


next up previous contents
Nächste Seite: Dynamische Programmierung Aufwärts: Potentiell relevante nicht-neuronale Methoden Vorherige Seite: Potentiell relevante nicht-neuronale Methoden   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite