Autoscoring Anticlimax: A Meta-analytic Understanding of AI's Short-answer Shortcomings and Wording Weaknesses

Deze meta-analyse onthult dat AI-modellen voor het beoordelen van korte antwoorden significant tekortschieten in vergelijking met menselijke experts, waarbij decoder-only-architecturen slechter presteren dan encoders, de moeilijkheidsgraad van de taak geen invloed heeft op de AI-prestaties, en er sprake is van ernstige gevoeligheid voor formulering en raciale discriminatie in hoge-stakes onderwijscontexten.

Michael Hardy

Gepubliceerd 2026-03-06
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

De Grote Teleurstelling: Waarom AI nog niet kan beoordelen wat kinderen leren

Stel je voor dat je een nieuwe, superkrachtige robot hebt die alles kan lezen en schrijven. Je denkt: "Geweldig! Laten we deze robot gebruiken om de huiswerkopdrachten van onze kinderen te beoordelen. Dat bespaart tijd en is eerlijk."

Maar wat blijkt? De robot faalt op precies de momenten waar we hem het hardst nodig hebben. Dit is het verhaal van het onderzoek van Michael Hardy, vertaald naar een simpel verhaal met een paar creatieve vergelijkingen.

1. De "Stoofvlees"-Probleem: Het is niet wat je denkt

De onderzoekers hebben gekeken naar honderden studies waarin AI probeerde korte antwoorden van kinderen te beoordelen. Het resultaat? De AI is vaak slechter dan we hoopten, en soms zelfs slechter dan oude systemen uit 2012.

De Vergelijking:
Stel je voor dat je een chef-kok hebt die de beste stoofvlees ter wereld kan maken (dat is de AI die internettekst leest en schrijft). Je vraagt deze chef echter om te beoordelen of een kind een goed verslag heeft geschreven over waarom het stoofvlees zo lekker is.
De chef kan het recept perfect nabootsen, maar hij begrijpt niet waarom het gerecht werkt. Hij kijkt alleen naar de woorden en de structuur, niet naar de diepere betekenis. In het onderwijs moeten we echter beoordelen of een kind iets begrijpt, niet alleen of het de juiste woorden gebruikt.

2. De "Woordspelletjes" en de Gevoelige Neus

De AI is extreem gevoelig voor hoe iets geschreven is, niet voor wat er staat.

De Vergelijking:
Stel je voor dat de AI een hond is die getraind is om op de klank van een commando te reageren, niet op de bedoeling.

  • Als je zegt "Ga zitten", doet hij het.
  • Maar als je een klein extra woordje toevoegt, of een spatie verplaatst, of een lettertje anders schrijft (zoals kinderen vaak doen), dan denkt de hond: "Oh, dit is een heel ander commando!" en doet hij iets heel anders.

Het onderzoek toont aan dat als je een kind een "Wit" of "Zwart" label geeft in de instructie, de AI ineens heel anders gaat oordelen over exact hetzelfde werk. Het is alsof de hond denkt dat een commando van een "Witte" eigenaar serieuzer is dan van een "Zwarte" eigenaar. Dit is een gevaarlijke vorm van vooroordelen die de AI heeft overgenomen van de teksten waar hij mee is getraind.

3. De "Gouden Middelweg" van het Woordenboek

De onderzoekers keken ook naar de "woordenboeken" (vocabulaires) die de AI gebruikt.

De Vergelijking:
Stel je voor dat de AI een woordenboek heeft om de taal van kinderen te begrijpen.

  • Te klein woordenboek: Als het woordenboek te klein is, kan de AI de rare spellingen van kinderen (zoals "exited" in plaats van "excited") niet herkennen. Het is alsof je een vertaler hebt die alleen woorden kent van volwassenen.
  • Te groot woordenboek: Als het woordenboek te groot is, zit er zoveel "ruis" en zeldzame woorden in dat de AI verward raakt. Hij ziet dan rare patronen die er niet zijn.
  • De Gouden Middelweg: Er is een perfect groot woordenboek nodig, maar zelfs dan werkt het niet altijd. De AI blijft vastzitten in oppervlakkige patronen.

4. Waarom is dit zo lastig? (De "Autoregressieve" Valstrik)

De kern van het probleem ligt in hoe deze AI-modellen zijn gebouwd. Ze zijn getraind om het volgende woord te voorspellen, net als wanneer je een tekst afmaakt.

De Vergelijking:
Stel je voor dat je een speler bent die een raadsel moet oplossen.

  • De AI is getraind als iemand die alleen naar de laatste letter van een zin kijkt om te raden wat er als volgt komt. Hij is een meester in het voorspellen van tekst.
  • Een leerkracht (of een menselijke beoordelaar) kijkt echter naar de hele zin, de context, en de logica. Ze kijken naar de betekenis.

De AI probeert een raadsel op te lossen door te raden wat er logisch volgt, terwijl de leerkracht vraagt: "Begrijp je wat er gebeurt?" De AI is goed in het nabootsen van een goed verhaal, maar slecht in het analyseren van of dat verhaal waarheid bevat.

5. De Conclusie: Geen "Snelle Oplossing"

De grote boodschap van dit onderzoek is: We kunnen niet zomaar een krachtige AI nemen en hopen dat hij goed wordt in het beoordelen van schoolwerk door alleen de instructies (prompts) iets te veranderen.

Het is alsof je probeert een Formule 1-auto te gebruiken om een fietspad op te rijden. De auto is te snel en te complex voor dat specifieke pad.

Wat moeten we doen?

  • Stop met denken dat "meer kracht" (grotere modellen) het probleem oplost.
  • Ontwerp systemen die specifiek zijn gemaakt voor het begrijpen van betekenis, niet alleen voor het voorspellen van woorden.
  • Wees voorzichtig met het vertrouwen op AI voor belangrijke beslissingen over kinderen, omdat de AI nog steeds vooroordelen heeft en niet echt "denkt" zoals wij.

Kortom: De AI is een briljante navorser, maar nog geen goed oordelend leraar. We moeten eerst de technologie fundamenteel anders bouwen voordat we hem in de klas kunnen zetten.