next up previous contents
Nächste Seite: Statische und dynamische Lernalgorithmen Aufwärts: Die Art der verwendeten Vorherige Seite: Externe Rückkopplung   Inhalt

Neuronale Netze und das fundamentale Lernproblem

Gerne hätte man, daß ein Netzwerk lernt, irgendwelche extern gestellten Aufgaben unter Inanspruchnahme möglichst spärlicher Lehrinformation zu lösen. Wenn die Performanz ungenügend ist, drängt sich dem Netzwerk ganz automatisch Minskys fundamentales Lernproblem [28] auf: Welche Komponenten des Netzes trugen zu welchen Zeitpunkten wie zu unerwünschten Zuständen bei? Wie sollten die kritischen Komponenten ihr Verhalten ändern?

An dieser Fragestellung ist schon ersichtlich, daß das fundamentale Lernproblem eine zeitliche und eine strukturelle Komponente besitzt. Nahezu alle Arbeiten zu adaptiven neuronalen Netzen beschäftigten sich bisher ausschließlich mit der strukturellen Komponente. Das mag teilweise daran liegen, daß man im Zuge der Betonung des massiv parallelen Aspektes neuronaler Netze in ein dem bisherigen sequentiellen Paradigma entgegengesetztes Extremum verfällt. Ein weiterer Grund mag darin liegen, daß das Gebiet bis vor kurzem von Physikern dominiert war, die ihre etablierten mathematischen Werkzeuge zur Behandlung von statischer Equilibriumsdynamik ohne größere Schwierigkeiten auf entsprechende neuronale Netze anwenden konnten. Was immer der Grund für die Vernachlässigung des zeitlich-sequentiellen Aspektes der neuronalen Informationsverabeitung war, gerechtfertigt war diese Vernachlässigung nicht: Selbst scheinbar statische Probleme (z.B. Bilderkennung - ganz zu schweigen von den inhärent dynamischen Problemen) erscheinen unter expliziter Beachtung der zeitlichen Dimension in einem ganz neuen Licht, oft gibt es Anlaß zu bedeutenden Effizienzgewinnen. (Ein Beispiel dafür liefert auch diese Arbeit, und zwar im Kapitel zur selektiven dynamischen Aufmerksamkeit.)

Ein Beispiel für interne und externe Rückkopplung ist das folgende: Ein Roboter versucht, einen Stab zu balancieren. Um seiner Aufgabe gerecht zu werden, muß der Roboter nicht nur die gegenwärtige Position des Stabes, sondern auch seine Geschwindigkeit feststellen. Um die Geschwindigkeit zu ermitteln, muß er (falls ihm kein Lehrer Hilfestellung gibt) im allgemeinen vergangene Positionen des Stabes mit berücksichtigen. Dazu muß er sich vergangene Ereignisse merken können. Eine wichtige Frage lautet: Wie kann er lernen, sich die für seine Aufgabe relevanten vergangenen Ereignisse zu merken und die irrelevanten zu ignorieren?


next up previous contents
Nächste Seite: Statische und dynamische Lernalgorithmen Aufwärts: Die Art der verwendeten Vorherige Seite: Externe Rückkopplung   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite