Nächste Seite: Interne Rückkopplung, algorithmische Dynamik
Aufwärts: Aufgabenstellungen und Terminologie
Vorherige Seite: Aufgabenstellungen und Terminologie
  Inhalt
Alle in den folgenden Kapiteln untersuchten neuronalen Netze
bestehen aus zu biologischen Neuronen
korrespondierenden Knoten und
und aus zu biologischen Nervenfasern
korrespondierenden gerichteten Kanten.
Zu jedem Knoten gehört zu jedem Zeitpunkt
eine der Feuerrate eines Neurons
entsprechende reelle Aktivation.
Zu jeder Kante gehört
ein zu einer Synapsenstärke
korrespondierendes Gewicht.
Eingabeknoten werden zu jedem Zeitpunkt
durch sensorische Wahrnehmung von der Umgebung
aktiviert.
Die typische Aktion
eines Nicht-Eingabeknotens
besteht zu einem gegebenen Zeitpunkt
in der Aufsummierung der gewichteten Aktivationen
derjenigen Knoten, von denen
Verbindungen erhält.
Das Resultat wird einer monoton wachsenden beschränkten
Aktivierungsfunktion zur Berechnung von
's eigener
Aktivation übergeben. Die Aktivationen mancher der Nicht-Eingabeknoten
werden als Steuersignale für Effektoren zur Manipulation
externer Prozesse interpretiert.
Lernregeln sollen die Gewichte
mit der Zeit dergestalt verändern, daß sich ein
vorgegebenes Performanzmaß
für das vom Gesamtsystem gezeigte Verhalten verbessert.
Die grundlegenden Bausteine der im folgenden vorgestellten
NN sind also recht konventionell.
Nicht berücksichtigt werden zum Beispiel
Konzepte wie `Knoten höherer Ordnung' oder `dynamische Gewichte'.
Der Grund dafür liegt darin, daß gegenwärtig
nicht klar ersichtlich ist,
ob derartige Konstrukte entscheidende Vorteile mit sich bringen.
Unterabschnitte
Nächste Seite: Interne Rückkopplung, algorithmische Dynamik
Aufwärts: Aufgabenstellungen und Terminologie
Vorherige Seite: Aufgabenstellungen und Terminologie
  Inhalt
Juergen Schmidhuber
2003-02-20
Related links in English: Recurrent neural networks - Subgoal learning - Reinforcement learning and POMDPs - Reinforcement learning economies - Selective attention
Deutsche Heimseite