Künstliche Neuronale Netze

Selbstorganisation
Generalisierungsfähigkeit
Fehlertoleranz

Kriesel, Daniel (2005). Ein kleiner Überblick über Neuronale Netze. Unveröffentlichtes Manuscript. Entstanden an der Rheinischen Friedrich-Wilhelms-Universität Bonn. S. 4f.

Das Studium der Künstlichen Neuronalen Netze ist also motiviert durch die Ähnlichkeit zu erfolgreich arbeitenden biologischen Systemen, welche im Vergleich zum Gesamtsystem aus sehr einfachen, aber dafür vielen und massiv parallel arbeitenden Nervenzellen bestehen und Lernfähigkeit besitzen. Ein Neuronales Netz muss nicht explizit für seine Aufgaben programmiert werden, es kann beispielsweise aus Trainingsbeispielen lernen oder auch durch Bestärkung, sozusagen durch Zuckerbrot und Peitsche (Reinforcement Learning). Ein aus dem Lernvorgang resultierender Aspekt ist die Generalisierungs- bzw. Assoziationsfähigkeit Neuronaler Netze: Nach erfolgreichem Training kann ein Neuronales Netz ähnliche Probleme derselben Klasse, die nicht explizit trainiert wurden, plausiblen Lösungen zuführen. Daraus resultiert dann wieder eine große Fehlertoleranz gegenüber verrauschten Eingabedaten. Fehlertoleranz steht wieder in enger Beziehung zu biologischen Neuronalen Netzen, bei denen diese Eigenschaft sehr ausgeprägt ist: Wie schon bemerkt, hat ein Mensch ca. 1011 Neurone, die sich aber kontinuierlich umstrukturieren oder durch Einflüsse von außen umstrukturiert werden – trotzdem wird unsere Kognitionsfähigkeit nicht wesentlich beeinträchtigt. Das Gehirn ist also tolerant gegenüber inneren Fehlern – und auch gegenüber Fehlern von außen.