.
Juergen Schmidhubers Heimseite
.

Neues


Englisch
Angelsachse,
sprich aus:
Yirgan
Shmidhoobuh.

Kannst Du
Schwarzenegger
& Schumacher
& Schiffer

sagen,
dann auch
Schmidhuber

ONLINE
SEIT
1405

(Moslem-
Kalender)


Publikationen

Ungeordnete
Bibdatei

(samt
Zitaten)


Portrait
(Apr 2004)

Mehr Bilder
(1963-2001)
Curriculum
Vitae

TU Munich
Cogbotlab TU Munich IDSIA IDSIA in der Presse

Jobs
am IDSIA


Jürgen
Schmidhuber
IDSIA
Galleria 2,
6928
Manno
(Lugano)
Schweiz
juergen@
idsia.ch

+41 58
666666 2

TITEL
Kodirektor
IDSIA
Professor
Kognitive
Robotik
@ TUM,
Prof.
SUPSI
Dr. habil.
1993 @ CU
Dr. rer. nat.
1991
Dipl. Inf.
1987

LAB \ einst
Alle Cummins
Legg Wiering
Omlin Taillard
Hutter Rosner
Poland Bakker
Gomez Jansen
Graves Dorigo
Gagliolo Kwee
Beringer Jolma
Chernov Zhao
Wierstra Gers
Zhumatiy Eck
Schraudolph
Salustowicz
Solomonoff
Hochreiter
Pedrazzini
Bontempi
Campbell


FAMILIE

Uli
Krommer

(Frau),
Julia &
Leonie

(Kinder)

Kaum Komplexe Kunst Lego Kunst:
stabile Ringe aus LEGO Quadern
Bilder selbst- verbessender
Roboter:

Stand der
Kunst
/
Zukunft /
Ferne Zukunft


Alle
Zeichnungen,
Kunstwerke,
WWW-
Schablonen:
© Jürgen
Schmidhuber
(wenn nicht
anders
angegeben)


Seit er rund 15 Jahre alt war, bestand Prof. Schmidhubers grösstes wissenschaftliches Ziel darin, einen künstlichen optimalen Wissenschaftler zu bauen, um sich anschliessend aus der Wissenschaft zurückzuziehen. Erst will er einen bauen, der besser ist als er selbst (seine Kollegen frotzeln, das müsste ganz einfach sein). Dieser soll dann die verbleibende Arbeit tun. Schmidhuber sieht keinen kostensparenderen Weg, sein geringes Mass an Kreativität nutzbringend einzusetzen und zu verfielfältigen. Bevor man ihn 2028 ohnehin in Rente schicken wird, wird er sich bereits Hardware zulegen können, deren rohe Rechenkraft die seines Hirns bei weitem übersteigt. Wird es bis dahin auch geeignete selbstverbessernde Software geben? Falls nicht, wäre er verblüfft. Dieser Optimismus beflügelt seine Forschungen im Bereich mathematisch sauberer, universeller Lernmaschinen und Künstlicher Intelligenz, besonders der Neuen KI, welche nicht nur für die Robotik, sondern auch für die Physik und die Musik bedeutsam ist.


JUNGE ARBEITEN

Logo Gödelmaschine Gödelmaschine oder Gödel-Maschine (2003): Es ist ein alter Traum der Informatiker, einen optimal effizienten universellen Problemlöser zu bauen. Die neuartige Gödelmaschine (inspiriert durch Kurt Gödels berühmte selbstreferentielle Formeln, 1931) lässt sich auf einem herkömmlichen Rechner implementieren und löst beliebige Probleme in theoretisch optimaler Weise. Sie beginnt mit einer axiomatischen Beschreibung ihrer selbst, was u.a. auch eine beliebige formalisierbare Problemstellung oder Gütefunktion mit einschliesst. Mit Hilfe eines asymptotisch optimalen Theorembeweisers überschreibt die Gödelmaschine beliebige Teile ihrer Software (samt dem Theorembeweiser), sobald sie einen Beweis gefunden hat, dass dies ihre zukünftige Leistung verbessern wird. Ausgeführte Selbständerungen sind global optimal (keine lokalen Minima!), da nachweislich keine der alternativen Selbständerungen und Beweise (die man durch Fortsetzung der Beweissuche finden könnte) das Warten wert sind. Zusammenfassung.

OOPS Suchbaum Optimaler Löser geordneter Probleme. OOPS (Kurzfrom des englischen Namens) löst ein Problem nach dem anderen durch Suche nach Programmen, die Lösungen berechnen. Die inkrementelle Methode nützt in optimaler Weise Lösungen älterer Probleme aus, wann immer dies möglich ist - vergleiche Levins optimale universelle Suche. OOPS kann temporär seine eigene Suchprozedur umschreiben und eine schnellere Suchmethode suchen (Metasuche oder Metalernen). Anwendbar auf Probleme der Optimierung und Vorhersage. Vortrag.

A. Kolmogorov mit K^E überlagert Super Omegas; Generalisierte Kolmogorov- Komplexität / Algorithmische Wahrscheinlichkeit. Kolmogorovs Komplexität K(x) eines Bitstrings x ist die Länge des kürzesten Programms, das x berechnet und hält. Solomonoffs algorithmische Wahrscheinlichkeit von x ist die Chance, ein Programm für x zu raten. Chaitins Omega ist die Halte- Wahrscheinlichkeit einer Turing- Maschine mit zufälliger Eingabe (Omega kennt man als die "Zahl der Weisheit", da sie kompakt alle mathematische Wahrheit kodiert). Schmidhuber generalisierte all dies zu nicht- haltenden, doch konvergierenden Programmen. Dies führte zu den kürzesten möglichen formalen Beschreibungen, und zu nicht- enumerablen, doch limit- berechenbaren W-Massen und Super Omegas. Hat sogar Konsequenzen für berechenbare Universen und optimale induktive Inferenz. Vortrag.

Universal AI book Universelle Lernalgorithmen. Es gibt einen theoretisch optimalen Weg, die Zukunft vorherzusagen, vorausgesetzt, die unbekannten probabilistischen Gesetze der Umgebung sind im Prinzip berechenbar. Daraus ergibt sich ein optimaler (jedoch leider nicht mehr berechenbarer) rationaler Agent, der in fast beliebigen Umgebungen seinen zu erwartenden Erfolg maximiert. Diese Arbeit repräsentiert die erste mathematisch saubere Theorie universeller künstlicher Intelligenz (frühere KI-Ansätze waren entweder heuristisch oder sehr beschränkt).

Würfeluhr illustriert natürliche probabilistische Vorliebe
für schnell berechenbare Dinge Schnelle Prior. Occams Rasiermesser: ziehe einfache Lösungen den komplexen vor. Aber was heisst einfach? Aus traditioneller Sichtweise haben einfache Dinge eine kurze Beschreibung oder ein kurzes Programm und damit niedrige Kolmogorov- Komplexität. Dies führt zu Solomonoffs & Levins wundervollem a priori W-Mass, welches zwar optimale, jedoch nicht- berechenbare Vorhersagen aus vergangenen Beobachtungen erlaubt. Die Schnelle Prior ist nun ein neues Einfachheitsmass basierend auf den schnellsten Beschreibungen, nicht den kürzesten. Führt zu nahezu optimalen berechenbaren Vorhersagen, und zu ungewöhnlichen Prophezeihungen über die Zukunft des Universums. Vortrag.

Galaxie und Binärcode Am Anfang war der Code. 1997 schrieb Schmidhuber den ersten Artikel über die möglichen berechenbaren Universen. Sein Grosser Programmierer verträgt sich mit Zuses Hypothese (1967) der berechenbaren Physik, gegen die keine physikalische Evidenz vorliegt. Wenn alles berechenbar ist, was ist dann das Programm unserer Welt? Es stellt sich heraus, dass das einfachste Programm alle Universen berechnet, nicht nur unseres. Spätere Arbeiten (2000) zum Thema Algorithmische Theorien des Alls analysierten alle Universen mit limit- berechenbaren Wahrscheinlichkeiten und die Grenzen formaler Beschreibbarkeit. Dies führte zu obigen Generalisierungen algorithmischer Information und Super Omega und auch zur Schnellen Prior. Das durchsuchbare "everything" Archiv enthält zahlreiche Diskussionen dieser Arbeiten. Vgl. Artikel im Spiegel und Kommentare zu Wolframs Buch (2002) sowie Brief zum Zufall in der Physik (Nature 439, 2006). Vortrag.

Rekurrentes neuronales Netzwork und menschliches Gehirn Künstliche rekurrente neuronale Netze. Die meisten Arbeiten im Bereich des maschinellen Lernens konzentrieren sich auf Maschinen mit einfachem reaktiven Verhalten. RNNs sind allgemeinere, dem menschlichen Gehirn nachempfundene Sequenzverarbeiter. Durch adaptive Rückkopplung sind sie im Prinzip so mächtig wie irgendein Rechner. Bis vor kurzem konnten RNNs jedoch nicht lernen, weit in die Vergangenheit zu blicken. Aber ein neues RNN namens "Long Short-Term Memory" (LSTM) überwindet fundamentale Probleme traditioneller RNNs, und lernt effizient so manche einst unlernbare Aufgabe: Erkennung gewisser kontextsensitiver Sprachen, Reinforcement- Lernen (R-Lernen) in partiell sichtbaren Umgebungen; Metalearnen schneller online Lernverfahren; Musikkomposition, Aspekte der Sprachverarbeitung, Zeitreihenvorhersage. Unsere RNN lernen durch Gradienten oder Evolution oder beides (EVOLINO).

ein CSEM Roboter Lernende Roboter. Manche Roboter tun erstaunliche Dinge. Aber sie sind fest verdrahtet und können nicht lernen wie Babys. Traditionelle R- Lernverfahren beschränken sich nämlich leider auf simples reaktives Vehalten. Daher funktionieren sie bei realistischen Robotern kaum. Roboter brauchen also neue Lernmethoden, um wichtige vergangene Ereignisse zu identifizieren und zu speichern, bis die Erinnerungen gebraucht werden. Schmidhubers Gruppe konzentriert sich auf RNNs RNN-Evolution, und OOPS. Sie kollaborieren mit CSEM auf dem Gebiet der attentiven Sensorik und hierarchischen Steuerung.


ALT ABER FEIN

Reinforcement- lernende Brachialmaus findet ein Stück Käse R-Lernen in partiell sichtbaren Welten. Wie Menschen sollen R-Lerner stets versuchen, ihr in Zukunft zu erwartendes Glück zu maximieren und das erwartete Leid zu minimieren. Frühere Arbeiten beschränkten sich meist auf reaktive Abbildungen von Wahrnehmungen zu Aktionen. Unsere Methoden (1989-2003) sind allgemeiner: sie erlernen geeignete interne Zustände, manchmal auch durch Evolution von RNN. Der erste universelle R-Lerner ist optimal, wenn wir seine exorbitante Rechenzeit vernachlässigen, und hier ist einer, der auch sonst optimal ist.

Gewichtsmuster rezeptiver Felder Nicht- lineare ICA. Mustererkennung geht besser, wenn die Daten redundanzarm sind und aus unabhängigen Teilen bestehen. Schmidhubers Vorhersagbarkeits- Minimierung (1992) war der erste nicht- lineare neuronale Algorithmus zum Erlernen redundanzarmer Daten- Umformungen. Er beruht auf Koevolution sich bekämpfender Prediktoren und Detektoren: die letzteren versuchen, Aspekte der Daten zu kodieren, die sie unvorhersagbar machen. Neuronale Geschichts- Kompressoren (1991) kodieren auch sequentielle Daten kompakt. Und Lococode vereinigt Regularisierung und unüberwachtes Lernen.

Roboter im Sumpf Metalerner / Lernen lernen / Selbst- verbesserung. Kann man Maschinen bauen, die bessere Lernmethoden lernen? Diese Frage treibt Schmidhubers Forschungen seit seiner 1987er Diplomarbeit. 1993 führte er selbst- referentielle Gewichtsmatrizen ein, und 1994 selbst- modifizierende Strategien, die durch den "Success- Story Algorithmus" trainiert werden (Vortrag). Sein erster bias- optimaler Metalearner war der bereits erwähnte OOPS (2002), und der ultimate Metalearner ist die Gödel- Maschine (2003).

Finanzvorhersage. Unsere lukrativste Anwendung neuronaler Netze verwendet eine Methode zweiter Ordnung, um das einfachste Modell gegebener Aktienmarktdaten zu finden.

Subziele Automatische Subzielfinder und Hierarchie- Lernen. Kein Lehrer zeigt unseren lernenden Maschinen gute Subziele. In den frürhen 1990ern fürhrten wir gradienten- basierte adaptive Subzielfinder ein (Bilder), später auch diskrete.

GP-Helix Programm- Evolution und Genetische Programme. Als Werkstudent der SIEMENS AG verwendete Schmidhuber Genetische Algorithmen, um Programme auf einer Symbolics LISP- Maschine zu evolvieren. Zwei Jahre später war das immer noch (fast) neu: 1987 publizierte er das weltweit zweite Paper zum Thema "Genetische Programmierung" (GP, das erste war Cramers in 1985), und das erste zum Thema Meta-GP.

Lernende Ökonomien ohne Inflation. In den späten 1980ern entwickelte Schmidhuber die ersten künstlichen, Geld- konservierenden, lernenden Marktwirtschaften, und auch die erste neuronale.

Zu viel Neugier Interessantheit & Aktive Exploration & Künstliche Neugier. Schmidhubers neugierige Agenten gehen dorthin, wo sie erwarten können, was zu lernen. Sie verlieren Interesse sowohl an vorhersagbaren als auch unvorhersagbaren Dingen.

Erlernen selektiver Vision. Menschen und andere biologische Systeme erkennen Muster durch sequentielle Augenbewegungen. Dies kann viel effizienter sein als vollständig parallele Ansätze zum maschinellen Sehen. 1990 bauten wir eine künstliche Fovea, die durch ein adaptives neuronales Netz gesteuert wird. Ohne Lehrer lernt es, Zielobjekte in einer visuellen Szene zu finden, oder bewegliche Ziele zu verfolgen.

Schnelle Gewichte Schnelle Gewichte statt rekurrenter Netze. Ein sich langsam änderndes Netz lernt, die sich schnell ändernden Synapsen eines weitern Netzes flott zu manipulieren. Mehr schnelle Synapsen & Evolution der Steuerung schneller Synapsen.

Neuronaler Wärmetauscher. Wie ein physikalischer Wärmetauscher, aber mit Neuronen statt Wasser. Wahrnehmungen erwärmen sich, Erwartungen kühlen ab.

Kaum-komplexer  Schmetterling Komplexitäts- basierte Theorie der Schönheit. 1997 behauptete Schmidhuber: unter mehreren als "vergleichbar" klassifizierten Mustern ist das subjektiv schönste das mit der kürzesten Beschreibung in der Musterkodiersprache des subjektiven Beobachters. Beispiele: simple Gesichter und Kaum Komplexe Kunst, die Minimalkunst des Informationszeitalters (Leonardo, 1997). Ein kaum komplexes Kunstwerk sieht `richtig' aus und ist trotzdem durch ein kurzes Programm berechenbar.

Künstliche Ameisen Künstliche Ameisen. IDSIA's künstliche Ameisen sind mit lokalen Suchtechniken ausgestattete Multiagenten- Optimierer, die mittels langsam verdampfender künstlicher Pheromone kommunizieren. Sie brachen mehrere wichtige technische Weltrekorde. Zahlreiche Reviews in Zeitschriften wie Spiegel, Nature, Science, Scientific American, TIME, NY Times, etc. IDSIA Spin-Off Firma: ANTOPTIMA.




Beschleunigung der Rechner- Geschichte. Schmidhubers Gesetz: jeder neue Durchbruch kommt doppelt so schnell - Omegapunkt um 2040.

Erster Motorflug (Nature 421 p 689, Newsweek Nov 2003)

Colossus (Nature 441 p 25)

Schöne neue Welt des wissenschaftlichen Publizierens

Geschichte der Roboter-Autos

Leute: Einstein (allgemeine Relativität, 1915), Zuse (erster Computer, 1935-41), Gödel (Grenzen der Mathematik und der Rechner, 1931), Turing (Turing- Maschine, 1936: Nature 429, 501, 2004), Gauss (Mathematiker des Jahrtausends), Leibniz (Infinitesimalrechnung und Binärsystem), Schickard (Vater des Computerzeitalters), Haber & Bosch (1913: einflussreichste Erfindung des 20. Jahrhunderts), Archimedes (grösster Wissenschaftler aller Zeiten).
.



Schmidhubers kleiner Bruder, der theoretische Physiker, und seine Frau, die Topologin. Artikel: berühmtester / lesbarster / bester / wildester


EU Metall (Athen 2004)

China und alte Imperien (Briefe in Newsweek)

Bayerische Poesie (perfekter Reim auf 8x4 Silben, und macht sogar Sinn)

Mehr Jürgens und Schmidhubers

Nie dem Ruhm so nah

Öffentliche Bar

Nicht den roten Knopf drücken!

gefährlicher roter Knopf