How Large Language Models Get Stuck: Early structure with persistent errors

Dit onderzoek toont aan dat Meta's OPT-model, wanneer getraind op de BabyLM-dataset, in bijna een derde van de BLiMP-grammaticale tests faalt doordat het vroeg in het trainingsproces vastloopt in persistente, foutieve bias die moeilijk te corrigeren is, een fenomeen dat de auteurs verklaren met de Bigram-hypothese.

Alokesh Manna, William Snyder, Whitney Tabor

Gepubliceerd 2026-03-12
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Hoe Taalmodellen in de Vals Trappen: Een Verhaal over Vroege Leerfouten

Stel je voor dat je een heel slimme, jonge student (het taalmodel) hebt die net begint met het leren van de taal. Deze student leest een enorme hoeveelheid boeken (de "BabyLM-dataset", ongeveer 100 miljoen woorden), maar veel minder dan wat de allerbeste AI's vandaag de dag lezen. De onderzoekers van deze studie wilden weten: Waarom maakt deze student bepaalde fouten die hij nooit meer corrigeert, terwijl hij andere dingen perfect leert?

Hier is de uitleg, vertaald naar alledaags taalgebruik met een paar leuke vergelijkingen.

1. Het Experiment: Een Taalstudent op de Proef

De onderzoekers (Alokesh, William en Whitney) hebben gekeken naar een model genaamd OPT. Ze lieten dit model oefenen op een specifieke set taaltoetsen genaamd BLiMP.

Stel je BLiMP voor als een reeks van 2000 mini-taalspellen. In elk spel krijg je twee zinnen:

  • Zin A: Grammaticaal correct (bijv. "Welk verslag heeft Jason ingediend voordat hij het las?")
  • Zin B: Grammaticaal fout (bijv. "Welk verslag heeft Jason het verslag ingediend voordat hij las?")

De taak van de student is simpel: hij moet Zin A "beter" vinden dan Zin B. Als hij dat doet, heeft hij de regel begrepen. Als hij Zin B "beter" vindt, heeft hij een fout gemaakt.

2. De Ontdekking: De "Valse Start"

De onderzoekers keken niet alleen naar het eindresultaat, maar keken hoe de student zich tijdens het leren ontwikkelde. Ze ontdekten iets verrassends:

  • Succes: Bij ongeveer twee derde van de regels leerde de student snel en correct. Hij zag direct dat Zin A beter was dan Zin B.
  • De Vastloper: Bij ongeveer één derde van de regels (zoals bij complexe zinsconstructies die taalkundigen "eiland-voorwaarden" noemen) gebeurde er iets raars. De student begon direct met het denken dat Zin B (de foutieve zin) beter was dan Zin A.

De Metafoor van de Vastloper:
Stel je voor dat je een student leert fietsen.

  • Bij het rechte stuk (simpele regels) leert hij snel en blijft hij rechtop.
  • Bij het bochtenwerk (complexe regels) begint hij echter direct in de verkeerde bocht te sturen. Hij denkt dat linksaf de goede weg is, terwijl het rechtsaf moet zijn.
  • Het ergste is: hij blijft daar vastzitten. Zelfs na duizenden kilometers fietsen (duizenden trainingstappen) probeert hij niet echt om de bocht te corrigeren. Hij heeft een "valse overtuiging" ontwikkeld die hij niet meer loslaat.

3. Waarom gebeurt dit? De "Bigram"-Valstrik

De onderzoekers hebben een theorie ontwikkeld om dit te verklaren, die ze de "Bigram-hypothese" noemen.

  • Wat is een Bigram? Stel je voor dat je taal leert door alleen naar de twee woorden naast elkaar te kijken. Bijvoorbeeld: "de" + "hond". Als je alleen naar deze paren kijkt, leer je snel patronen.
  • Het Probleem: In het begin van de training gedraagt het model zich bijna als een simpele machine die alleen naar twee woorden kijkt.
  • De Valstrik: Bij de moeilijke regels (waar de student vastloopt) is het vaak zo dat de foutieve zin toevallig bestaat uit woorden die vaak samen voorkomen in de taal.
    • Voorbeeld: Stel dat in de foutieve zin de woorden "is" en "over" vaak samen voorkomen in echte teksten. De simpele "twee-woorden-machine" denkt dan: "Oh, 'is over' klinkt heel vertrouwd, dat moet wel goed zijn!"
    • De goede zin daarentegen heeft woorden die zelden direct naast elkaar staan, ook al is de zin grammaticaal perfect. De simpele machine denkt dan: "Dat klinkt raar, dat is fout."

De Creatieve Vergelijking:
Het is alsof je een student leert om een schilderij te herkennen.

  • De goede zin is een meesterwerk van een groot kunstenaar, maar de kleuren staan in een ongebruikelijke volgorde.
  • De foute zin is een slechte kopie, maar de kleuren staan precies in de volgorde die je op duizenden posters in de supermarkt ziet.
  • Omdat de student in het begin alleen naar de kleuren (de woorden) kijkt en niet naar de diepere structuur (de grammatica), kiest hij de poster uit de supermarkt. Hij denkt dat dat het "echte" kunstwerk is. Omdat hij dit zo vroeg leert, wordt het een hardnekkig geloof dat hij later niet meer kan loslaten.

4. De Oplossing: De "Kritieke Momenten"

De onderzoekers hebben precies gemeten wanneer deze fouten zich vastzetten. Het gebeurt heel vroeg, rond de 5.000e tot 7.000e trainingstap. Dit is het moment waarop de "skeletstructuur" van het model wordt opgebouwd.

  • Als het model op dat moment de verkeerde richting opduikt (door de valstrik van de veelvoorkomende woordparen), blijft het daar vastzitten.
  • Als het model op dat moment de goede richting opduikt, blijft het daar ook vastzitten (maar dan op de goede manier).

5. Wat betekent dit voor de toekomst?

De boodschap van dit onderzoek is hoopvol, maar ook een waarschuwing:

  1. Training is niet alleen "meer is beter": Als je een model gewoon langer laat trainen, lost het deze specifieke fouten vaak niet op. De fout zit te diep verankerd in de vroege structuur.
  2. We moeten de start verbeteren: Om betere AI te maken, moeten we de training zo aanpassen dat we het model voorkomen dat het in die valse valstrikken terechtkomt tijdens die eerste, kritieke fase. Misschien moeten we het model dwingen om verder te kijken dan alleen de twee woorden direct naast elkaar, al in het begin.

Kortom: Taalmodellen zijn niet dom, maar ze zijn soms slordig in het begin. Ze grijpen naar de makkelijkste patronen (woorden die vaak samen staan) en vergeten dan de complexe regels. Als we dat in de gaten houden en de training aanpassen, kunnen we ze helpen om niet in die valse trappen te blijven hangen.