Experiment 1: `off-line', , , lokale Eingaberepräsentation, 3 versteckte Knoten pro Prediktor, 4 allen Repräsentationsmodulen gemeinsame versteckte Knoten. 10 Testläufe mit 20000 Trainingsepochen für die Repräsentationsmodule wurden durchgeführt. In 8 Fällen genügte dies zur Findung eines faktoriellen Binärcodes.
Experiment 2: on-line, , , verteilte Eingaberepräsentation, 2 versteckte Knoten pro Prediktor, 4 allen Repräsentationsmodulen gemeinsame versteckte Knoten. 10 Testläufe wurden durchgeführt. Weniger als 3000 Musterpräsentationen (äquivalent zu ca. 700 Epochen) reichten dabei stets aus, um einen faktoriellen Binärcode zu entdecken.
Experiment 3: `off-line', , , lokale Eingaberepräsentation, 3 versteckte Knoten pro Prediktor, 16 allen Repräsentationsmodulen gemeinsame versteckte Knoten. 10 Testläufe mit 20000 Trainingsepochen für die Repräsentationsmodule wurden durchgeführt. In einem Fall fand das System einen invertiblen faktoriellen Code. In 4 Fällen kreierte es einen `nahezu' faktoriellen Code mit 15 verschiedenen binären Ausgabemustern als Antworten auf die 16 Eingabemuster. In drei Fällen kreierte es einen Code mit 14 Ausgabemustern, und in 2 Fällen einen mit 13. In allen Fällen wurde zumindest eine in hohem Maße nicht-redundante Codierung gefunden.
Experiment 4: on-line, , , verteilte Eingaberepräsentation, 6 versteckte Knoten pro Prediktor, 8 allen Repräsentationsmodulen gemeinsame versteckte Knoten. 10 Testläufe wurden durchgeführt. In allen Fällen außer einem genügten weniger als 4000 Musterpräsentationen (äquivalent zu weniger als 300 Epochen) zur Entdeckung eines faktoriellen Binärcodes mit 16 verschiedenen binären Ausgabemustern als Antworten auf die 16 Eingabemuster.