Die Neurowissenschaft liefert grundlegende Erkenntnisse darüber, wie biologische Systeme Information aufnehmen, verarbeiten und speichern. Das menschliche Gehirn mit seinen rund 86 Milliarden Neuronen und Billionen synaptischer Verbindungen dient dabei seit Jahrzehnten als Inspirationsquelle für die Entwicklung künstlicher neuronaler Netze und lernfähiger Algorithmen. Gleichzeitig zeigt der Vergleich zwischen biologischer und künstlicher Informationsverarbeitung sowohl faszinierende Parallelen als auch fundamentale Unterschiede auf. Während künstliche Systeme bei spezifischen Aufgaben wie Mustererkennung oder Sprachverarbeitung mittlerweile beachtliche Leistungen erzielen, unterscheidet sich ihre Funktionsweise in wesentlichen Aspekten von der neuronalen Verarbeitung im Gehirn, etwa hinsichtlich Energieeffizienz, Adaptionsfähigkeit und Generalisierung. Die Artikel dieser Kategorie untersuchen die Wechselwirkungen zwischen Neurowissenschaft und künstlicher Intelligenz. Dabei werden Mechanismen wie neuronale Plastizität, Aufmerksamkeitssteuerung und Gedächtnisbildung beleuchtet und in Bezug zu aktuellen Architekturen und Trainingsmethoden im Bereich des maschinellen Lernens gesetzt.
Embodiment-Gap, evolutionäre Priors und methodische Artefakte - warum viele Parallelen zwischen Gehirn und KI oberflächlich bleiben.
Wie Gehirn und Sprachmodell mit denselben Problemen umgehen - von Schlaf gegen Catastrophic Forgetting bis Meta-Kognition.
Wie Gehirn und Transformer hierarchische Repräsentationen aufbauen - von Letter Recognition bis semantische Emergenz.
Primacy/Recency-Effekt und Lost-in-the-Middle - wie Mensch und KI Information durch Attention komprimieren.
Parallelen zwischen biologischen und künstlichen neuronalen Netzen und was sie über Informationsverarbeitung verraten.