The Aftermath of DrawEduMath: Vision Language Models Underperform with Struggling Students and Misdiagnose Errors

De studie toont aan dat visueel-taalmodellen op de DrawEduMath-benchmark tekortschotten in het analyseren van fouten van leerlingen die extra hulp nodig hebben, wat aangeeft dat deze modellen voor educatieve doeleinden andere ontwikkelingsprioriteiten nodig hebben dan louter wiskundige probleemoplossing.

Li Lucy, Albert Zhang, Nathan Anderson, Ryan Knight, Kyle Lo

Gepubliceerd 2026-03-03
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom slimme AI-tutors nog niet klaar zijn voor de klas (en waarom ze struggling students in de steek laten)

Stel je voor dat je een groep zeer slimme, digitale leraars hebt. Ze hebben miljoenen wiskundepuzzels opgelost en kunnen de moeilijkste vergelijkingen in een flits oplossen. Je zou denken: "Perfect! Laten we ze in elke klas zetten om kinderen te helpen."

Maar dit onderzoek, getiteld The Aftermath of DrawEduMath, laat zien dat deze digitale leraars een groot probleem hebben: Ze zijn geweldig in het zien van het juiste antwoord, maar ze zijn slecht in het begrijpen van fouten.

Hier is wat het onderzoek zegt, vertaald naar alledaags taal met een paar handige vergelijkingen:

1. De "Perfecte Student" vs. De "Lerende Student"

De onderzoekers testten 11 verschillende AI-modellen (zoals de slimme hersenen achter Google, OpenAI en Meta) met echte foto's van schoolwerk van kinderen. Sommige kinderen hadden het antwoord perfect, anderen maakten fouten.

  • De Analogie: Stel je voor dat je een auto hebt die perfect rijdt op een lege, rechte snelweg. Maar zodra er een kind op de fiets voor de auto rijdt, of er een glibberige weg is, raakt de auto in paniek en stopt.
  • Het Resultaat: De AI's deden het uitstekend als het kind het antwoord goed had. Maar zodra het kind een fout maakte (bijvoorbeeld een verkeerd getekende lijn of een verkeerd berekening), raakten de AI's in de war. Ze konden de fout niet goed beschrijven. Het was alsof ze dachten: "Oh, dit moet wel goed zijn, want ik heb het antwoord al in mijn hoofd," en negeerden wat er echt op het papier stond.

2. Het "Gouden Antwoord" Spook

Waarom doen ze dit? Het onderzoek suggereert dat de AI's zo getraind zijn om goede wiskunde te maken, dat ze veronderstellen dat iedereen het goed doet.

  • De Analogie: Stel je voor dat je een chef-kok bent die alleen maar perfecte pizza's heeft gemaakt. Als iemand een pizza binnenbrengt met een gebakken korst en een rauwe kaas, en je vraagt: "Wat zie je?", zegt de chef: "Ik zie een perfecte pizza." Hij ziet de rauwe kaas niet, omdat zijn brein zo is geprogrammeerd om alleen de perfecte versie te verwachten.
  • Het Gevolg: Als een kind een fout maakt, geeft de AI vaak het antwoord dat had moeten zijn, in plaats van te zeggen wat het kind echt heeft gedaan. Ze "hallucineren" een perfecte oplossing in plaats van de fout te analyseren.

3. Het is niet alleen de "slechte foto"

Je zou denken: "Misschien maken kinderen die fouten gewoon rommeligere tekeningen? Misschien is de foto wazig?"
De onderzoekers hebben dit getest. Ze hebben de rommelige, handgetekende antwoorden van de kinderen overgetekend naar schone, digitale versies.

  • Het Resultaat: Zelfs met de schone, digitale foto's bleef de AI het moeilijk vinden om de fouten te zien. Het probleem zat dus niet in de "ruis" van de foto, maar in het "brein" van de AI zelf. Ze zijn niet getraind om fouten te analyseren, maar om fouten te corrigeren naar een ideaalbeeld.

4. De "Ja/Nee" vs. "Uitgebreid" Valstrik

De AI's deden het soms iets beter als je ze een simpele vraag stelde, zoals: "Is dit antwoord goed? Ja of Nee." Maar zodra je vroeg: "Wat ging er precies mis?", vielen ze terug.

  • De Analogie: Het is alsof je een robot vraagt: "Is de deur open?" (Ja/Nee). Dat kan hij makkelijk. Maar als je vraagt: "Waarom staat de deur op een kier en wat moet je doen om hem dicht te krijgen?", dan raakt de robot in de war.
  • Het Gevolg: Voor een echte leraar is het juist het uitleggen van de fout dat het belangrijkst is. De AI kan dat momenteel niet goed.

Waarom is dit belangrijk?

We willen AI gebruiken om kinderen te helpen leren. Maar leren betekent fouten maken. Als je een AI-tutor gebruikt die alleen goed doet als het antwoord al perfect is, helpt hij de kinderen die het hardst nodig hebben (diegene die worstelen met de stof) juist niet.

  • Het Risico: Als we deze AI's nu al in de klas zetten, zouden ze kunnen denken dat een kind het goed doet (terwijl het fouten maakt) of juist denken dat een kind het fout heeft (terwijl het een slimme aanpak gebruikt). Dit kan de kloof tussen sterke en zwakke leerlingen zelfs vergroten.

De Conclusie in het Kort

Deze slimme AI's zijn als wiskundige olympische kampioenen: ze kunnen het perfecte antwoord geven. Maar een leraar is meer dan een olympisch kampioen; een leraar moet een coach zijn die ziet waar de speler struikelt en helpt om weer op te staan.

Op dit moment zijn deze AI's nog geen goede coaches. Ze moeten nog veel leren om niet alleen het "goede antwoord" te zien, maar ook de "moeizame weg" van een leerling die aan het leren is. Voordat we ze in de klas zetten, moeten we ze eerst trainen om fouten te begrijpen, niet alleen om ze te negeren.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →