To Predict or Not to Predict? Towards reliable uncertainty estimation in the presence of noise

Deze studie toont aan dat Monte Carlo dropout-technieken voor onzekerheidsschatting betrouwbaarder zijn dan softmax-gebaseerde methoden voor meertalige tekstclassificatie onder ruis en domeinverschuivingen, en dat het afzien van voorspellingen voor de meest onzekere instances de prestaties aanzienlijk verbetert.

Nouran Khallaf, Serge Sharoff

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

"Voorspellen of niet voorspellen? Een gids voor onzekerheid in AI"

Stel je voor dat je een zeer slimme, multitalente vertaler hebt die teksten in zeven verschillende talen kan lezen en beoordelen. Deze vertaler kan zeggen of een zin "makkelijk" of "moeilijk" is. Maar er is een probleem: soms is deze vertaler niet zeker van zijn antwoord. Soms denkt hij dat hij het weet, terwijl hij eigenlijk gissen doet.

Dit is precies waar dit onderzoek over gaat: hoe kunnen we AI-systemen leren om te zeggen: "Ik weet het niet zeker, laat dit maar voor wat het is"?

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen.

1. Het Probleem: De Zekere Dwaas

In de echte wereld werken AI-systemen vaak in rommelige situaties. Ze krijgen teksten die ze nooit eerder hebben gezien, in talen waar ze minder van weten, of met rare zinsconstructies.
Stel je voor dat je een gids hebt in een vreemd land. Als je hem vraagt: "Waar is het station?", zegt hij misschien: "Zeker weten, links!" terwijl hij eigenlijk helemaal niet zeker is. Hij geeft een antwoord, maar het is fout.
In de AI-wereld noemen we dit een classificatietask. De AI moet een keuze maken, maar ze heeft geen "rood lampje" om te zeggen: "Hé, ik twijfel!"

2. De Oplossing: Het Onzekerheids-Compaan

De onderzoekers (Nouran en Serge) hebben gekeken naar verschillende methoden om deze "twijfel" te meten. Ze noemen dit Uncertainty Estimation (UE).
Je kunt dit vergelijken met een kompas dat niet alleen de richting aangeeft, maar ook aangeeft hoe sterk de wind waait. Als de wind te hard waait (hoge onzekerheid), raad je de reiziger aan om even te wachten in plaats van door te gaan.

Ze hebben negen verschillende soorten "kompassen" getest:

  • De Simpele Schatting (Softmax): Dit is de standaard methode. Het is snel, maar soms te zelfverzekerd. Alsof een kompas dat altijd naar het noorden wijst, zelfs als je in het zuiden bent.
  • De Monte Carlo Methode (Dropout): Dit is alsof je de gids 20 keer dezelfde vraag stelt, maar elke keer met een lichte hoofdpijn (random dropout). Als de gids 19 keer "links" zegt en 1 keer "rechts", weten we dat hij twijfelt. Dit werkt heel goed, maar het kost tijd.
  • De Afstandsmeter (Mahalanobis): Deze kijkt of de vraag lijkt op dingen die de gids al kent. Als de vraag heel vreemd is (bijvoorbeeld over een onderwerp dat hij nooit heeft geleerd), zegt hij: "Dit is te ver weg van mijn kennis."

3. Wat vonden ze? (De Grote Verassingen)

Het onderzoek deed dit in zeven talen (zoals Engels, Frans, Hindi, Russisch) en met verschillende soorten teksten (van Wikipedia tot nieuwsberichten).

  • De "Gouden Standaard" is niet altijd de beste: De simpele methoden werken prima als je in je eigen tuin bent (in je eigen taal en met bekende teksten). Maar zodra je de tuin uitloopt (andere taal of vreemd onderwerp), worden ze onbetrouwbaar. Ze blijven zelfverzekerd, zelfs als ze fout zitten.
  • De "Monte Carlo" methode wint: De methode waarbij je de AI meerdere keren laat "gissen" (met dropout) bleek de meest betrouwbare. Het is alsof je een groep experts vraagt in plaats van één persoon. Zelfs als de situatie erg moeilijk is, blijft deze methode nuchter en zegt hij: "Ik weet het niet zeker."
  • Kiezen is beter dan raden: Dit is het belangrijkste punt. Als je de AI zegt: "Als je niet zeker bent, zeg dan niets," dan wordt het systeem veel slimmer.
    • Vergelijking: Stel je een schutter voor die 100 schoten doet. Hij mist 20 keer. Als je hem zegt: "Schiet alleen als je zeker bent," en hij laat die 20 moeilijke schoten over, dan is zijn trefferpercentage plotseling veel hoger.
    • In het onderzoek bleek dat als je de 10% meest twijfelachtige antwoorden weggooit, de kwaliteit van de rest van de antwoorden stijgt van een 81% naar een 85%. Dat is een enorme winst!

4. De Kosten: Snelheid vs. Betrouwbaarheid

Natuurlijk kost het meer tijd om 20 keer te "gissen" dan één keer.

  • De simpele methoden zijn als een fiets: snel en goedkoop, maar in de storm (onzekere situaties) val je snel.
  • De geavanceerde methoden zijn als een jacht: ze zijn zwaarder en kosten meer brandstof (rekenkracht), maar ze blijven stabiel in de storm.

5. Conclusie: Wanneer moet je stoppen met voorspellen?

De kernboodschap van dit paper is: Er is geen enkele "beste" methode voor alles.

  • Als je in een veilige omgeving zit (bekende taal, bekende tekst), kun je de snelle, simpele methoden gebruiken.
  • Maar als je in de echte, rommelige wereld werkt (andere talen, rare teksten), moet je kiezen voor de methoden die twijfel kunnen voelen, zelfs als dat betekent dat je iets langzamer bent.

De moraal: Het is beter om te zeggen "Ik weet het niet" en een fout te voorkomen, dan om zelfverzekerd een verkeerd antwoord te geven. Door te leren wanneer je niet moet voorspellen, maak je je AI-systemen veiliger en betrouwbaarder voor de echte wereld.