next up previous contents
Nächste Seite: SCHEMATISCHE VORGEHENSWEISE Aufwärts: EINFÜHRUNG Vorherige Seite: GRADIENTENBASIERTE NETZWERKE   Inhalt

ZIELE DER ARBEIT

I. Behandlung theoretischer Aspekte. Unterschiedliche Problemstellungen erfordern unterschiedliche Performanzmaße und (häufig modulare) Architekturen. Die vorliegende Schrift will an verschiedenen, großenteils neuartigen Architekturen detailliert aufzeigen, wie sich bedeutsame wiederkehrende Probleme des überwachten Lernens, des sogenannten `Reinforcement'-Lernens und des unüberwachten Lernens in der Sprache der Zielfunktionen formulieren lassen, und wie es mit Hilfe der Kettenregel möglich ist, bei verschiedensten gegebenen Architekturen aus der (durch Zielfunktionen gegebenen) formalen Spezifikation des gewünschten Programmverhaltens in mathematisch zu rechtfertigender Weise gradientenbasierte Lernalgorithmen herzuleiten.

Dabei soll u.a. demonstriert werden, daß der bereits erwähnte (und später noch detailliert zu beschreibende) neuronale Standardalgorithmus BP das Potential der Kettenregel zum Entwurf adaptiver Systeme nicht annähernd ausschöpft. Die Lektüre dieser Schrift soll dem Leser einerseits ein Gefühl für die mannigfaltigen Anwendungsmöglichkeiten der in Abschnitt 1.3 darzustellenden schematischen Entwurfssystematik vermitteln und ihn andererseits mit einer Reihe von zur Entwicklung von Lernverfahren brauchbaren Werkzeugen und Konzepten ausstatten. Es sollte dabei klar werden, daß die formale Spezifikation gewünschter `Software'-Eigenschaften durch Zielfunktionen, die bezüglich der `Software' differenzierbar sind, eine sehr allgemeine und interessante Alternative zu herkömmlichen Lösungsspezifikationsansätzen darstellt.

II. Experimentelle Untersuchungen. Obwohl großmaßstäbliche Anwendungen der abgeleiteten Verfahren im Rahmen dieser Arbeit nicht von Interesse sind, sollen die Arbeitsweise und die Schranken neuartiger Algorithmen im folgenden durch die Beschreibung zahlreicher Experimente verdeutlicht werden.

III. Fragen außerhalb des Schwergewichts der Arbeit. 1. Wir beschäftigen uns nicht mit Lernverfahren für nicht-differenzierbare oder nicht-deterministische KNN ([146], [147], [38], [36], [8], [62], [77], [9], [140]). Das soll nicht etwa heißen, daß derartige KNN nicht ebenfalls ihre Berechtigung haben - in der Tat hat sich der Autor selbst längere Zeit damit beschäftigt, solche Systeme zu untersuchen und Lernalgorithmen für sie zu entwerfen (z.B. [90], [91], [100], [97], [95], [51], [92], [99], [103], [93]).

2. Auch auf Methoden zur `Regularisierung' nicht vom Lernalgorithmus adjustierbarer Parameter (wie z.B. `Lernraten', Zahl der parallel arbeitenden neuronenartigen Prozessoren, relative Gewichtung von Zielfunktionstermen zur Erzwingung `einfacher' Lösungen [18] [142], etc.) werden wir aufgrund ihrer Orthogonalität zum Ziel der Arbeit keine Rücksicht nehmen. Der interessierte Leser sei statt dessen auf MacKays Untersuchungen sowie auf die von ihm angeführten Referenzen verwiesen [53][54].

3. Die folgenden Kapitel konzentrieren sich auf die einfachste Art gradientenbasierter Suche, nämlich den Gradientenanstieg oder -abstieg. Zwar stellt uns die Numerik trickreichere und häufig effizientere gradientenbasierte Standardverfahren zur Verfügung (z.B. konjugierte Gradientenverfahren, `line search', Methoden zweiter Ordnung, effiziente Approximationen von Methoden zweiter Ordnung, etc., siehe auch Arbeiten zu beschleunigten Gradientenabstiegsverfahren in e.g. [24][89][67][127]). Derartige Modifizierungen haben allerdings nichts mit der Essenz vorliegender Schrift zu tun und werden von ihr daher ignoriert. Der Schwerpunkt dieser Arbeit liegt auf der Erstellung geeigneter `differenzierbarer' Architekturen für verschiedenartige Problemklassen sowie der zugehörigen kettenregelbasierten Gradientenberechnung, nicht auf der Frage, wie man den Gradienten schließlich am effizientesten zur Zielfunktionsmaximierung einsetzt.


next up previous contents
Nächste Seite: SCHEMATISCHE VORGEHENSWEISE Aufwärts: EINFÜHRUNG Vorherige Seite: GRADIENTENBASIERTE NETZWERKE   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite