Across the Levels of Analysis: Explaining Predictive Processing in Humans Requires More Than Machine-Estimated Probabilities

Dit artikel bekritiseert en breidt uit op de claims dat taalmodellen het centrale mechanisme van taalverwerking verklaren en onmisbaar zijn voor psycholinguïstische vooruitgang, en pleit voor een meerlaagse aanpak die de kracht van grote taalmodellen combineert met psycholinguïstische theorieën.

Oorspronkelijke auteurs: Sathvik Nair, Colin Phillips

Gepubliceerd 2026-04-13
📖 5 min leestijd🧠 Diepgaand

Dit is een AI-gegenereerde uitleg van het onderstaande artikel. Het is niet geschreven of goedgekeurd door de auteurs. Raadpleeg het oorspronkelijke artikel voor technische nauwkeurigheid. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom een slimme voorspeller niet hetzelfde is als een menselijk brein

Stel je voor dat je een heel slimme, digitale voorspeller hebt. Deze voorspeller is getraind op miljoenen boeken en kan met een enorme nauwkeurigheid raden welk woord als volgende komt in een zin. Als je zegt: "De kat zat op de...", zegt hij direct: "stoel" of "mat".

Dit is wat Taalmodellen (LM's) doen. Ze zijn de nieuwe helden in de taalwetenschap. Maar in dit artikel stellen de auteurs, Sathvik Nair en Colin Phillips, een belangrijke vraag: Is deze slimme voorspeller ook echt een goed model voor hoe ons menselijk brein werkt?

Het antwoord is: Nee, niet helemaal. Hier is waarom, verteld in simpele taal met een paar creatieve vergelijkingen.

1. De oude droom en de nieuwe hype

In de jaren '60 dachten wetenschappers: "Als we de complexiteit van een zin kunnen meten, kunnen we ook meten hoe moeilijk het is om die zin te lezen." Dat idee viel in de war, maar het idee leeft nog steeds.

Vandaag de dag hebben we superkrachtige computers die kunnen zeggen: "Dit woord was heel onwaarschijnlijk, dus het kostte de lezer meer tijd om het te begrijpen." Dit heet Surprisal-theorie (verrassingstheorie). Het lijkt alsof we eindelijk de "heilige graal" hebben gevonden: een simpele formule die verklaart waarom we soms struikelen over een zin.

2. Het probleem: De voorspeller vs. De mens

De auteurs zeggen: "Wacht even."
Stel je voor dat je een GPS hebt die perfect de snelste route berekent. Die GPS is geweldig om te zeggen waar je naartoe moet. Maar de GPS vertelt je niets over hoe je auto rijdt, hoe je remt, of hoe je spiegel controleert.

  • De Taalmodellen (LM's) zijn als die GPS. Ze zijn fantastisch in het berekenen van de kans dat een woord komt (de route).
  • Het Menselijke Brein is de chauffeur. Het moet niet alleen de route kennen, maar ook schakelen, remmen, afleiden en reageren op onverwachte obstakels.

Het grote probleem is dat Taalmodellen alles reduceren tot statistiek. Ze zeggen: "Dit woord was onwaarschijnlijk, dus het is moeilijk." Maar voor mensen is taalprocessing niet alleen een statistische gok. Het gaat om hoe we zinnen bouwen, hoe we herinneringen ophalen en hoe we fouten maken op specifieke manieren.

3. Waar de voorspeller faalt

De auteurs geven een paar voorbeelden waar de "slimme voorspeller" het niet bij het rechte eind heeft:

  • Illusies: Soms lezen mensen zinnen die er grammaticaal raar uitzien, maar toch "logisch" lijken (zoals: "De sleutel die de deur opende..."). Mensen kunnen hierin worden bedrogen. Taalmodellen zien dit vaak niet of reageren er anders op. Het is alsof de GPS zegt "dit is een rechte weg", terwijl de chauffeur ziet dat er een goudvis in de berm zit die hij moet vermijden.
  • Rolverwisseling: Als we een zin horen als "De hond bijt de man", begrijpen we direct wie de dader is. Als we horen "De man bijt de hond", is dat raar. Taalmodellen zien dit als een statistische onwaarschijnlijkheid. Maar voor ons brein is het een fundamentele fout in de structuur van de zin, niet alleen een statistiek.

4. De oplossing: Kijk naar het "Hoe", niet alleen naar het "Wat"

De auteurs pleiten ervoor om niet alleen te kijken naar wat er voorspeld wordt (de uitkomst), maar naar hoe het gebeurt (het proces).

Ze vergelijken dit met voorspellende codering (predictive coding). Stel je voor dat je brein een regisseur is die een film draait. De regisseur verwacht een bepaalde scène. Als de acteur iets anders doet, moet de regisseur snel schakelen, de camera bijsturen en de muziek aanpassen.

  • Taalmodellen kijken alleen naar de draaiboekstatistieken: "Hoe vaak komt deze scène voor?"
  • Voorspellende modellen kijken naar de regisseur: "Hoe snel kan hij schakelen? Hoeveel energie kost het om de plot te veranderen?"

De auteurs zeggen dat we Taalmodellen moeten gebruiken als een hulpmiddel, niet als de uiteindelijke verklaring. Ze zijn geweldig om te zeggen welke woorden moeilijk zijn, maar we hebben andere modellen nodig om uit te leggen waarom ons brein daar vastloopt.

Conclusie: Liefde met een voorbehoud

De auteurs sluiten af met een mooi beeld: Psycholinguïstiek kan "liefde" hebben voor Taalmodellen, maar niet blindelings.

  • We kunnen ze houden als een krachtige tool om te meten hoe complex taal is.
  • Maar we moeten ze niet zien als de volledige uitleg van het menselijk brein.

Het menselijk brein is niet alleen een statistische machine die woorden voorspelt; het is een dynamisch systeem dat actief bouwt, fouten maakt en zich aanpast. Om dat te begrijpen, moeten we verder kijken dan alleen de cijfers van de computer. We moeten kijken naar de mechanica van het denken.

Kort samengevat: Taalmodellen zijn de perfecte voorspeller van de toekomst, maar het menselijk brein is de kunstenaar die in het heden leeft en reageert. We hebben beide nodig, maar ze zijn niet hetzelfde.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →