next up previous contents
Nächste Seite: ARCHITEKTUR UND AKTIVIERUNGSDYNAMIK Aufwärts: NETZWERKARCHITEKTUREN, ZIELFUNKTIONEN UND KETTENREGEL Vorherige Seite: DANKSAGUNG   Inhalt

VOLLSTÄNDIGE RÜCKKOPPLUNG

Wir beginnen mit einer allgemeinen Standardarchitektur, die (im selben Sinne wie ein herkömmlicher Rechner) Turingmaschinen-äquivalent ist. Sie eignet sich zur Berechnung beliebiger, auf sequentiell arbeitenden konventionellen Maschinen berechenbarer Funktionen und weist damit über die Schranken einfacher statischer BP-Musterassoziatoren hinaus: Im Prinzip gestattet das System beispielsweise die Extraktion der Regeln einer unbekannten Grammatik aus einem sequentiellen Eingabestrom.

Abschnitt 2.1 definiert dabei zunächst die Netzwerkstruktur und Aktivierungsdynamik, welche beschreiben, wie Eingabesequenzen verarbeitet werden. Daraufhin geben wir eine geeignete Zielfunktion an, die formal unser Ziel spezifiziert, welches darin bestehen soll, beliebige diskrete Ausgabesequenzen mit beliebigen diskreten Eingabesequenzen zu assoziieren. Schließlich leiten wir mit der Kettenregel eine Reihe nicht-lokaler Algorithmen zum Erlernen von Ein-/Ausgabesequenzen ab, die alle denselben exakten Performanzgradienten berechnen, sich aber in ihrer Komplexität unterscheiden. Daraus ist bereits ersichtlich, daß die Kettenregel gelegentlich mehr als einen Lernalgorithmus gestattet und offenbar in mehr oder weniger raffinierter Weise eingesetzt werden kann. Der erste Algorithmus braucht für beliebig lange Traininssequenzen beliebig viel Speicherplatz. Der zweite Algorithmus kommt mit fixem Speicherplatz aus, hat jedoch den Nachteil hoher Zeitkomplexität pro Iterationsschritt. Der dritte neuartige Algorithmus (der originäre Beitrag dieses Kapitels) benötigt nicht mehr Speicherplatz als der zweite, ist jedoch um den Faktor $O(n)$ schneller (wobei $n$ die Anzahl der Knoten im Netzwerk bezeichnet).

Experimente mit klammerbalanzierenden Turingmaschinen und regulären Grammatiken belegen die praktische Anwendbarkeit der Verfahren. Sie demonstrieren aber auch gewisse praktische Schranken rekurrenter Netze für den Fall langer zeitlicher Verzögerungen zwischen Ereignissen und korrelierten gewünschten Ausgaben. Dies wird Motivation für Kapitel 7 liefern.



Unterabschnitte
next up previous contents
Nächste Seite: ARCHITEKTUR UND AKTIVIERUNGSDYNAMIK Aufwärts: NETZWERKARCHITEKTUREN, ZIELFUNKTIONEN UND KETTENREGEL Vorherige Seite: DANKSAGUNG   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite