Ein Lernalgorithmus für dynamische neuronale Netze heiße stark lokal, wenn
1. er schwach lokal ist,
2. jeder Knoten und jede Verbindung zu jedem Zeitpunkt dieselbe Operation ausführen, es keine zeitliche Trennung zwischen Gewichtsänderungsphase und Aktivationsausbreitung gibt, und keine von einem externen Lehrer definierte Trainigsintervallgrenzen für den Lernvorgang notwendig sind.
Ein stark lokaler Algorithmus kann auf beliebig strukturierten Netzen funktionieren. Jeder Knoten darf zu einem gegebenen Zeitpunkt ausschließlich auf Information von Knoten angewiesen sein, mit denen er verbunden ist. Jede Verbindung darf zu jedem Zeitpunkt ausschließlich auf Information von denjenigen Knoten angewiesen sein, die sie verbindet, sowie eventuell auf Information von einem externen Lehrer.
Adaption unter den Bedingungen der starken Lokalität entspricht weitgehend der Selbstorganisation von massiv parallelen, aus vielen lokal kommunizierenden Einzelteilen bestehenden Systemen.