Experiment 1:
`off-line',
,
,
lokale Eingaberepräsentation,
3 versteckte Knoten pro Prediktor,
4 allen Repräsentationsmodulen gemeinsame versteckte Knoten.
10 Testläufe mit 20000 Trainingsepochen für die
Repräsentationsmodule wurden durchgeführt.
In 8 Fällen genügte dies zur Findung eines
faktoriellen Binärcodes.
Experiment 2:
on-line,
,
,
verteilte Eingaberepräsentation,
2 versteckte Knoten pro Prediktor,
4 allen Repräsentationsmodulen gemeinsame versteckte Knoten.
10 Testläufe wurden durchgeführt.
Weniger als 3000 Musterpräsentationen (äquivalent zu ca.
700 Epochen)
reichten dabei stets aus, um einen
faktoriellen Binärcode zu entdecken.
Experiment 3:
`off-line',
,
,
lokale Eingaberepräsentation,
3 versteckte Knoten pro Prediktor,
16 allen Repräsentationsmodulen gemeinsame versteckte Knoten.
10 Testläufe mit 20000 Trainingsepochen für die
Repräsentationsmodule wurden durchgeführt.
In einem Fall fand das System einen invertiblen faktoriellen Code.
In 4 Fällen kreierte es einen `nahezu' faktoriellen
Code mit 15 verschiedenen binären Ausgabemustern als Antworten auf
die 16 Eingabemuster.
In drei Fällen kreierte es einen Code mit 14 Ausgabemustern,
und in 2 Fällen einen mit 13. In allen Fällen wurde
zumindest eine in hohem Maße nicht-redundante
Codierung gefunden.
Experiment 4:
on-line,
,
,
verteilte Eingaberepräsentation,
6 versteckte Knoten pro Prediktor,
8 allen Repräsentationsmodulen gemeinsame versteckte Knoten.
10 Testläufe wurden durchgeführt.
In allen Fällen außer einem genügten
weniger als 4000 Musterpräsentationen (äquivalent zu weniger als
300 Epochen)
zur Entdeckung eines
faktoriellen Binärcodes mit 16
verschiedenen binären Ausgabemustern als Antworten auf
die 16 Eingabemuster.