Evidence from fMRI Supports a Two-Phase Abstraction Process in Language Models

Dit artikel toont aan dat fMRI-onderzoek de aanwezigheid van een tweefasig abstractieproces in taalmodellen bevestigt, waarbij de eerste 'compositie'-fase tijdens training wordt gecomprimeerd en de prestaties van laag-voor-laag codering sterk correleren met de intrinsieke dimensionaliteit van de representaties, voornamelijk gedreven door compositie en niet door next-word predictie.

Emily Cheng, Richard J. Antonello

Gepubliceerd 2026-03-16
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Hoe een AI-geest werkt: Een reis door de hersenen van een taalmodel

Stel je voor dat je een enorme bibliotheek binnenloopt. In deze bibliotheek zit een robot die boeken leest en probeert te begrijpen wat erin staat. Maar in plaats van alleen maar woorden te onthouden, bouwt deze robot een compleet nieuw soort "geest" op.

Wetenschappers hebben al lang ontdekt dat als we kijken naar de gedachten van deze robot (de data die hij verwerkt terwijl hij leest), die gedachten opvallend lijken op de activiteit in onze eigen menselijke hersenen. Maar er is een raadsel: waarom lijken ze op elkaar? En waarom is het niet de robot die het antwoord geeft, maar juist de robot die halverwege de zin zit?

Dit artikel van Emily Cheng en Richard Antonello lost dit raadsel op met een fascinerend verhaal over twee fases van denken.

1. Het mysterie van de "halverwege" robot

Stel je voor dat de robot een lange zin leest, zoals: "De kleine hond rent vrolijk door het park."

  • Fase 1 (De beginlaag): De robot ziet alleen losse letters en woorden. "D", "e", "h", "o", "n", "d". Dit is als het zien van losse puzzelstukjes.
  • Fase 2 (De eindlaag): De robot probeert het volgende woord te voorspellen. Hij denkt: "Wat komt er na 'park'? Misschien 'lekker' of 'gras'?" Dit is als het raden van het antwoord op een quiz.

Wetenschappers dachten dat de robot het beste in zijn hersenen leek op de onze als hij het antwoord probeerde te raden (Fase 2). Maar dit artikel zegt: Nee! De robot lijkt het meest op onze hersenen in Fase 1, halverwege de zin. Op dat moment bouwt hij een rijk, complex beeld van wat de zin betekent, voordat hij überhaupt aan het raden begint.

2. De twee fases van denken: Bouwen vs. Raden

De auteurs gebruiken een mooie analogie om dit uit te leggen. Stel je voor dat je een prachtige, ingewikkelde maquette van een stad bouwt.

  • Fase 1: De Bouwfase (Compositie)
    In het begin van het proces (de eerste lagen van de robot) verzamelt de robot alle informatie. Hij bouwt de straten, de gebouwen, de bomen en de mensen. Hij maakt een compleet, driedimensionaal beeld van de situatie.

    • In het artikel: Dit is de fase waar de "intrinsieke dimensie" (een maat voor hoe complex en rijk de gedachte is) het hoogst is. De robot heeft hier een heel breed, gedetailleerd begrip van de taal.
    • Vergelijking: Dit is precies wat onze hersenen doen als we luisteren naar een verhaal. We bouwen een mentaal beeld van de situatie op.
  • Fase 2: De Radfase (Voorspelling)
    Zodra de maquette klaar is, moet de robot zijn werk afmaken door het volgende woord te raden. Om dit te doen, moet hij zijn brede, complexe beeld versmallen. Hij moet zich focussen op één specifiek antwoord. Hij gooit de details weg die niet nodig zijn voor het voorspellen van het volgende woord.

    • In het artikel: Hier daalt de complexiteit. De robot wordt minder "menselijk" in zijn denken en meer als een rekenmachine die een voorspelling doet.

De grote ontdekking: Onze hersenen lijken op de robot omdat we ook eerst een compleet beeld bouwen (Fase 1) voordat we iets zeggen of doen. We zijn niet alleen bezig met het voorspellen van het volgende woord; we zijn bezig met het begrijpen van de wereld.

3. Hoe ze dit hebben bewezen: De "Hersenscan" van de robot

De auteurs hebben dit niet zomaar geraden. Ze hebben een slimme truc gebruikt:

  1. De Robot: Ze namen verschillende versies van een taalmodel (zoals OPT en Pythia) en keken naar elke stap die de robot maakte terwijl hij tekst las.
  2. De Mensen: Ze lieten echte mensen luisteren naar podcastverhalen terwijl ze in een MRI-scanner lagen (een soort supersterke camera voor hersenen).
  3. De Vergelijking: Ze keken welke stap van de robot het beste paste bij welke activiteit in de menselijke hersenen.

Het resultaat:

  • De stap van de robot waar het meest complexe, abstracte beeld werd gemaakt (de piek in complexiteit), paste perfect bij de gebieden in de menselijke hersenen die verantwoordelijk zijn voor taalbegrip.
  • De stap waar de robot het volgende woord voorspelde, paste veel minder goed.

4. Wat betekent dit voor de toekomst?

Dit onderzoek vertelt ons twee belangrijke dingen:

  1. AI is meer dan een voorspeller: Het feit dat robots onze hersenen nabootsen, komt niet omdat ze zo goed zijn in het raden van het volgende woord (zoals een auto-correctie op je telefoon). Het komt omdat ze, net als wij, leren om betekenis en samenhang te creëren uit losse woorden.
  2. Beter begrijpen, beter voorspellen: Als we willen dat AI-modellen onze hersenen nog beter begrijpen (of dat we betere modellen kunnen bouwen voor medische toepassingen), moeten we kijken naar die "bouwfase" waar de complexiteit het hoogst is, en niet naar de eindresultaten.

Kortom:
De robot en de mens zijn op hun best vergelijkbaar wanneer ze allebei bezig zijn met het bouwen van een rijk verhaal in hun hoofd, en niet wanneer ze bezig zijn met het raden van het einde. Het artikel bewijst dat de magie van taal niet zit in het voorspellen, maar in het begrijpen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →