Neural Functional Alignment Space: Brain-Referenced Representation of Artificial Neural Networks

Die Autoren stellen den Neural Functional Alignment Space (NFAS) vor, ein neuartiges, hirnbasiertes Rahmenwerk, das künstliche neuronale Netze durch die Modellierung ihrer intrinsischen dynamischen Entwicklung und die Projektion in ein biologisch verankertes Koordinatensystem auf eine gemeinsame funktionale Ebene bringt.

Ruiyu Yan, Hanqi Jiang, Yi Pan, Xiaobo Li, Tianming Liu, Xi Jiang, Lin Zhao

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie wollen herausfinden, ob ein künstlicher Computer-Intelligenz (KI) und das menschliche Gehirn auf die gleiche Art „denken". Das ist wie der Versuch, zu verstehen, ob ein Flugzeug und ein Vogel auf die gleiche Weise fliegen, obwohl der eine aus Metall und der andere aus Federn besteht.

Bisher haben Forscher versucht, KI und Gehirn zu vergleichen, indem sie schauten, welche Schicht in der KI welchem Teil des Gehirns am ähnlichsten sieht. Das ist aber wie zu versuchen, ein ganzes Buch zu verstehen, indem man nur ein einziges Wort auf Seite 50 liest. Es fehlt der Kontext.

Diese neue Studie von Ruiyu Yan und seinem Team schlägt einen völlig neuen Weg vor, den sie „Neural Functional Alignment Space" (NFAS) nennen. Hier ist eine einfache Erklärung, wie das funktioniert:

1. Der Film statt das Foto: Wie Gedanken fließen

Stellen Sie sich vor, wenn Sie eine Katze sehen, wandert diese Information durch Ihr Gehirn wie ein Fluss. Sie beginnt bei den Augen, wandert durch verschiedene Stationen und wird am Ende zu dem Gedanken „Das ist eine Katze".

  • Der alte Weg: Forscher haben früher nur einzelne „Fotos" gemacht (eine Schicht der KI oder ein Moment im Gehirn) und diese verglichen.
  • Der neue Weg (NFAS): Die Autoren sagen: „Nein, wir müssen den ganzen Film ansehen!" Sie betrachten, wie sich die Information durch die Tiefe des KI-Netzwerks bewegt. Sie modellieren diesen Fluss als eine dynamische Reise.

2. Der „Stabile Kern": Der Tanz des Gedankens

Wenn Sie einen Tanzschritt wiederholen, gibt es immer eine stabile Grundbewegung, egal wie schnell Sie tanzen. Die Forscher nutzen eine mathematische Methode (die sie „Dynamic Mode Decomposition" nennen), um diesen stabilen Kern der KI zu finden.

Stellen Sie sich vor, die KI tanzt einen Tanz, um ein Bild zu erkennen. Die Forscher filtern alle wilden Bewegungen heraus und behalten nur den stabilen Rhythmus übrig. Dieser Rhythmus ist der eigentliche „Gedanke" der KI, unabhängig davon, ob sie aus vielen kleinen Schichten oder wenigen großen Schichten besteht.

3. Der biologische Kompass: Der Gehirn-Atlas

Jetzt haben wir diesen stabilen „Gedanken-Rhythmus" der KI. Aber wo passt er hin?
Hier kommt der NFAS ins Spiel. Stellen Sie sich den NFAS als eine riesige, dreidimensionale Landkarte vor, die genau so aussieht wie die Landkarte des menschlichen Gehirns.

  • Jede Region auf dieser Landkarte (z. B. der Bereich für Gesichter, der Bereich für Sprache) ist ein Punkt im Raum.
  • Die Forscher projizieren den „Gedanken-Rhythmus" der KI auf diese Landkarte.
  • Das Ergebnis: Wenn eine KI ein Bild einer Katze erkennt, landet ihr „Gedanke" auf der Landkarte genau dort, wo auch das menschliche Gehirn aktiv wird, wenn es eine Katze sieht.

4. Der „Geräusch-Filter": Das SNCI

Manchmal sind KI-Modelle sehr laut und chaotisch (wie ein Orchester, bei dem jeder ein anderes Lied spielt). Um zu sehen, ob sie wirklich ähnlich sind, haben die Forscher einen neuen Messwert erfunden, das SNCI (Signal-zu-Rauschen-Konsistenz-Index).

Stellen Sie sich vor, Sie hören eine Gruppe von Musikern.

  • Wenn jeder Musiker ein völlig anderes Lied spielt, ist das „Rauschen" hoch und das Signal schwach.
  • Wenn alle Musiker (trotz verschiedener Instrumente) denselben Rhythmus spielen, ist das Signal stark.
    Das SNCI misst, wie sehr sich verschiedene KI-Modelle innerhalb einer Kategorie (z. B. alle Sprach-KIs) auf die gleiche Art und Weise mit dem Gehirn synchronisieren.

Was haben sie herausgefunden?

Als sie 45 verschiedene KI-Modelle (für Bilder, Sprache und Ton) durch diesen Filter schickten, sahen sie etwas Wunderbares:

  1. Sortierte Gruppen: Die KI-Modelle ordneten sich auf der Gehirn-Landkarte automatisch an. Alle Sprach-KIs landeten in der Nähe der Sprachzentren des Gehirns, alle Bild-KIs in der Nähe der Sehzentren. Sie haben sich also wie Menschen „sortiert".
  2. Die Brücke: Interessanterweise gab es Bereiche im Gehirn (wie das limbische System, das für Gefühle und Erinnerungen zuständig ist), bei denen sich fast alle KI-Modelle trafen. Das deutet darauf hin, dass intelligente Systeme, egal ob aus Fleisch oder Code, bestimmte gemeinsame Regeln befolgen müssen, um die Welt zu verstehen.

Fazit

Diese Studie sagt uns: Wir müssen KI nicht mehr als eine Blackbox betrachten, die wir nur mit dem Gehirn vergleichen, wenn sie eine Aufgabe löst. Stattdessen können wir ihren inneren Denkfluss messen und sehen, wie er sich in die Landkarte des menschlichen Gehirns einfügt.

Es ist, als hätten wir endlich eine gemeinsame Sprache gefunden, in der wir sagen können: „Dieser Computer-Algorithmus denkt auf die gleiche Weise wie ein menschlicher Hirnstrang, wenn er über Musik nachdenkt." Das ist ein großer Schritt, um zu verstehen, was Intelligenz wirklich ist.