Are foundation models for computer vision good conformal predictors?

Deze studie toont aan dat visie- en visie-taal foundation modellen, met name Vision Transformers, uitstekend geschikt zijn voor conformale voorspelling, waarbij ze theoretische dekking garanderen en beter presteren bij few-shot aanpassing, terwijl het kalibreren van hun betrouwbaarheidsvoorspellingen juist de efficiëntie kan verminderen.

Leo Fillioux, Julio Silva-Rodríguez, Ismail Ben Ayed, Paul-Henry Cournède, Maria Vakalopoulou, Stergios Christodoulidis, Jose Dolz

Gepubliceerd 2026-02-17
📖 6 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Zijn de slimme computer-oogjes ook eerlijk? Een verhaal over zekerheid en voorspellingen

Stel je voor dat je een super-slimme robot hebt die foto's kan bekijken en vertellen wat erop staat. Deze robot is niet zomaar een gewone camera; hij is opgeleid met miljoenen foto's uit het hele internet. Dit zijn de zogenaamde "Foundation Models". Ze zijn zo slim dat ze bijna alles kunnen herkennen, van een hond tot een heel specifiek type bloem, zelfs zonder dat ze die specifieke bloem ooit eerder hebben gezien.

Maar hier zit een addertje onder het gras: Hoe zeker is deze robot eigenlijk?

Soms denkt de robot dat hij 99% zeker is, terwijl hij het helemaal mis heeft. In situaties waar het erom gaat (zoals bij medische diagnoses of zelfrijdende auto's), is die "overmoed" gevaarlijk. We willen weten: Wanneer moet ik deze robot geloven, en wanneer moet ik twijfelen?

Dit is waar het onderzoek van deze paper om draait. De auteurs kijken naar een slimme statistische methode genaamd Conformal Prediction (CP). Laten we dit uitleggen met een paar creatieve vergelijkingen.

1. Het Probleem: De Zekere Leugenaar

Stel je voor dat de robot een gokker is in een casino.

  • Gewone modellen: Zeggen: "Ik heb 90% kans dat dit een appel is." Maar als ze 10 keer een appel noemen, is het misschien maar 7 keer een appel. Ze zijn niet goed gekalibreerd.
  • Het doel: We willen een systeem dat zegt: "Ik heb 90% zekerheid dat het antwoord in deze lijst staat." En als we 100 keer spelen, moet het juiste antwoord inderdaad 90 keer in die lijst zitten. Dat is Conformal Prediction.

In plaats van één antwoord te geven ("Dit is een appel"), geeft Conformal Prediction een lijstje met opties.

  • Voorbeeld: "Ik ben niet 100% zeker, maar ik kan garanderen dat het juiste antwoord in deze lijst van 3 dingen zit: [Appel, Peer, Perzik]."
  • Als het een appel is, hebben we gelijk. Als het een peer is, hebben we ook gelijk. Het systeem is eerlijk over zijn onzekerheid.

2. De Drie Spelers (De Methoden)

De onderzoekers hebben gekeken hoe goed deze "Foundation Models" werken met drie verschillende manieren om zo'n lijstje te maken:

  1. LAC (De simpele grens): "Ik neem alles wat er meer dan 50% kans op heeft." Soms werkt dit goed, soms niet.
  2. APS (De slimme verzamelaar): Deze methode is als een verzamelaar die steeds meer items toevoegt aan zijn lijstje totdat hij zeker is dat het juiste antwoord erin zit. Hij is erg betrouwbaar, maar zijn lijstjes worden soms lang.
  3. RAPS (De strenge beheerder): Deze probeert de lijstjes kort te houden door een boete te geven als je te veel opties toevoegt. Hij wil efficiënt zijn, maar loopt soms vast bij moeilijke vragen.

3. De Grote Ontdekkingen

De onderzoekers hebben deze slimme robots (zoals CLIP en DINO) getest in verschillende situaties. Hier zijn de belangrijkste lessen, vertaald naar alledaags taal:

A. De "Vision Transformers" zijn de kampioenen

De nieuwste generatie robots (die werken met een techniek genaamd "Vision Transformers", zoals DINOv2 en CLIP) doen het veel beter dan de oude, traditionele robots.

  • Vergelijking: Het is alsof je een oude, stoffige landkaart vergelijkt met een moderne GPS-app. De GPS (de Vision Transformer) maakt veel kleinere, nauwkeurigere lijstjes en is betrouwbaarder, zelfs als de weg verandert.

B. Kalibratie kan averechts werken

Vaak proberen mensen de robots "kalibreren" (hun zelfvertrouwen aanpassen) zodat ze eerlijker zijn.

  • Vergelijking: Stel je voor dat je een thermometer die altijd te warm aangeeft, een beetje afstelt. Dat klinkt goed. Maar in dit onderzoek bleek dat als je de robots "kalibreert", hun lijstjes met opties groter worden. Ze worden conservatiever.
  • Conclusie: Als je een heel nauwkeurige lijst wilt (korte lijstje), helpt kalibratie soms niet. Als je juist zekerheid wilt (dat het antwoord er echt in zit), is het misschien wel goed, maar dan moet je accepteren dat de lijst langer wordt.

C. Leerlingen worden beter dan meesters (Few-Shot Learning)

Soms geven we de robot een paar voorbeelden van een nieuwe taak (bijvoorbeeld: "Kijk, dit is een 'Giraffe', en dit is een 'Zebra'"). Dit noemen ze "Few-Shot learning".

  • Vergelijking: Een robot die alles al weet (Zero-Shot) is slim, maar soms wat onzeker. Als je hem een paar voorbeelden geeft, wordt hij niet alleen slimmer in het herkennen, maar ook beter in het maken van eerlijke lijstjes. Hij maakt kortere lijstjes en is zekerder.

D. De "Verkeerssituatie" (Distribution Shift)

Wat gebeurt er als de robot foto's ziet die hij nooit heeft gezien? Bijvoorbeeld foto's van schilderijen in plaats van echte foto's, of foto's met veel ruis?

  • Vergelijking: Stel je voor dat je in een auto rijdt op een bekende weg (de trainingsdata), en plotseling kom je in een modderig terrein (nieuwe data).
  • De methode APS (de verzamelaar) is hier de winnaar. Hij wordt wel wat "traag" (zijn lijstjes worden langer), maar hij verliest nooit de waarheid uit het oog. Hij blijft garanderen dat het juiste antwoord in zijn lijstje zit, zelfs in de modder.
  • De methode RAPS (de strenge beheerder) probeert zijn lijstje kort te houden, maar in de modder slaagt hij er niet in om de waarheid te vangen. Hij wordt onbetrouwbaar.

4. Wat betekent dit voor de toekomst?

De boodschap van dit onderzoek is hoopvol voor de toekomst van veilige AI:

  1. Gebruik de nieuwste modellen: De moderne "Foundation Models" (zoals CLIP en DINO) zijn uitstekend geschikt om eerlijke voorspellingen te doen.
  2. Kies je methode slim:
    • Wil je maximale veiligheid (bijvoorbeeld in een ziekenhuis)? Gebruik APS. Het maakt misschien een langere lijstje, maar je kunt erop vertrouwen dat het juiste antwoord erin zit, zelfs als de situatie ongewoon is.
    • Wil je snelheid en efficiëntie (bijvoorbeeld in een spelletje)? Gebruik RAPS, maar wees voorzichtig als de situatie verandert.
  3. Onzekerheid is goed: Het is beter om een lijstje te geven met 3 opties dan om één fout antwoord te geven met 100% zekerheid. Conformal Prediction zorgt ervoor dat we die onzekerheid kunnen meten en managen.

Kortom: Deze slimme computer-oogjes zijn niet alleen slim in het zien, maar met de juiste statistische hulpmiddelen (Conformal Prediction) kunnen ze ook heel eerlijk zijn over wat ze wel en niet weten. Dat is een enorme stap voorwaarts voor het veilig gebruiken van AI in de echte wereld.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →