next up previous contents
Nächste Seite: SCHLUSSBEMERKUNGEN ZUR ARBEIT Aufwärts: AUSBLICK: `SELBSTREFERENTIELLE' NEURONALE NETZE Vorherige Seite: HERLEITUNG DES ALGORITHMUS   Inhalt

ABSCHLIESSENDE BEMERKUNGEN ZU KAPITEL 8

In diesem Kapitel habe ich im wesentlichen ein gradientenbasiertes Netzwerk konstruiert, welches nicht nur lernen kann, von der Umgebung gestellte Probleme zu lösen, sondern auch, seine eigenen Gewichte als Eingabedaten zu verwenden und seinen eigenen Gewichtsänderungsalgorithmus in sinnvoller Weise beliebig zu manipulieren. Der Effekt dieses Vorgehens besteht im wesentlichen im Kollaps einer Kette von `Meta-Netzwerken' und `Meta-Meta-...-Netzwerken' in das Originalnetzwerk selbst [115].

Das System will sich als Repräsentant einer Vielzahl ähnlicher Systeme verstanden wissen, denen zwei Dinge gemein sind: Expliziter Zugang zu allen modifizierbaren Algorithmuskomponenten sowie prinzipiell unbeschränkte Mächtigkeit (in praktischen Anwendungen allerdings limitiert durch unvermeidliche vorgegebene Zeit- und Speicherbegrenzungen).

Biologische Plausibilität. Es scheint, als ob ich meiner $10^{15}$-ten Synapse nicht explizit vorschreiben kann, welchen Wert sie annehmen soll. Statt dessen scheinen sich meine eigenen Synapsen nur indirekt durch Willensakte beeinflussen zu lassen - beispielsweise durch Kreierung von `Schlüsseln' und `Einträgen', die miteinander assoziiert werden sollen (wie z.B. korrespondierende Wörter aus zwei verschiedenen Sprachen). Auf den ersten Blick scheint das neuronale Netz in meinem Kopf demzufolge eine andere Art von `Selbstreferenz' zu pflegen als das KNN aus Sektion 8.2. Mir ist allerdings keine wirkliche Evidenz für diese Vermutung bekannt: Auch unser `selbstreferentielles' KNN verfügt ursprünglich über kein Konzept seines $n$-ten Gewichtes - alles, was es tun kann, ist, herauszufinden, `in der Sprache der Aktivationen über Gewichte zu reden', ohne wirklich zu `wissen', was ein Gewicht ist (auch Menschen besaßen für lange Zeit keinerlei Vorstellung von ihren Synapsen). Mir sind andererseits allerdings auch keine biologischen Fakten bekannt, die die Theorie stützen würden, daß organische Gehirne in der Tat Mittel besitzen, all ihre Synapsen einzeln8.9zu adressieren.

Zukünftige Forschungen. Der Lernalgorithmus aus Abschnitt 8.2 basiert auf dem Konzept separater Trainingsintervalle. Nach jeder Trainingssequenz wird die am Ende des Intervalls durch Selbstmodifikation gewonnene Gewichtsmatrix einfach weggeworfen. Eine Alternative bestünde darin, die finale Gewichtsmatrix gegen die bisher beste zu testen und sie zu behalten, falls sie besser ist8.10. Ich würde jedoch ein hypothetisches Lernsystem vorziehen, das nicht von Anfang an auf das Konzept von Trainingssequenzen festgelegt ist. Statt dessen sollte dieses hypothetische System in der Lage sein, zu lernen, einen kontinuierlichen Eingabestrom dergestalt zu segmentieren und zu manipulieren, daß es sich selbst so etwas wie maßgeschneiderte Trainingssequenzen zurechtlegen kann. Im Rahmen zukünftiger Forschungen soll versucht werden, geeignete Lernalgorithmen (mit formal beweisbarer Wirksamkeit) für derartige Systeme zu entwerfen.

Wie bereits durch den Titel nahegelegt, stellt dieses abschließende Kapitel8.11einen Ausblick dar. Es möchte sich selbst im Rahmen eines Gedankenexperimentes auf das Aufweisen der theoretischen Möglichkeit gewisser `selbstreferentieller' Gewichtsänderungsalgorithmen beschränken - das konstruktive Beispiel aus den vorangegangenen Abschnitten stellt gewiß nicht den effizientesten oder praktikabelsten gradientenbasierten `selbstreferentiellen' Lernalgorithmus dar. Der Entwurf alternativer, effizienterer Adressierschemata sowie experimentelle Auswertungen spezifischer Details sollen zukünftigen Forschungen überlassen bleiben (ein Schritt in diese Richtung wurde in [116] getan).


next up previous contents
Nächste Seite: SCHLUSSBEMERKUNGEN ZUR ARBEIT Aufwärts: AUSBLICK: `SELBSTREFERENTIELLE' NEURONALE NETZE Vorherige Seite: HERLEITUNG DES ALGORITHMUS   Inhalt
Juergen Schmidhuber 2003-02-20


Related links in English: Recurrent networks - Fast weights - Subgoal learning - Reinforcement learning and POMDPs - Unsupervised learning and ICA - Metalearning and learning to learn
Deutsche Heimseite