Uncertainty-aware Language Guidance for Concept Bottleneck Models

Deze paper stelt een nieuwe onzekerheidsbewuste methode voor Concept Bottleneck Models voor die de betrouwbaarheid van door LLM's gegenereerde conceptlabels kwantificeert en deze onzekerheid integreert in het trainingsproces om hallucinaties te verminderen en de interpretatie te verbeteren.

Yangyi Li, Mengdi Huai

Gepubliceerd 2026-03-02
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms verwarde assistent hebt die foto's moet herkennen. Deze assistent is een Concept Bottleneck Model (CBM). In plaats van direct te zeggen "dit is een goudvis", denkt de assistent eerst na over de eigenschappen: "heeft het schubben?", "zwemt het in water?", "is het geel?". Pas daarna maakt hij een conclusie. Dit is geweldig omdat we precies kunnen zien waarom hij tot een beslissing komt.

Het probleem is echter: wie vertelt de assistent welke eigenschappen belangrijk zijn? Meestal moeten mensen (experts) dit handmatig uitschrijven. Dat kost enorm veel tijd en geld.

Om dit op te lossen, hebben onderzoekers geprobeerd een AI-assistent (een Large Language Model of LLM) te gebruiken om deze eigenschappen automatisch te bedenken. Maar hier zit een addertje onder het gras: deze AI-assistent is soms "hallucinerend". Hij verzint dingen die er niet zijn (bijvoorbeeld "gele ogen" bij een vis die ze niet heeft) of herhaalt zich.

Deze paper introduceert een nieuwe methode, ULCBM, die twee slimme trucjes gebruikt om dit probleem op te lossen. Laten we het uitleggen met een paar creatieve metaforen:

1. De "Onzekerheids-meter" (Conformal Prediction)

Stel je voor dat de AI-assistent een lijstje met eigenschappen voor een foto maakt. Omdat we niet weten welke van die eigenschappen waar zijn en welke verzonnen, geven we elke eigenschap een onzeerheids-meter.

In plaats van blindelings te vertrouwen op wat de AI zegt, gebruiken we een wiskundig "veiligheidsnet" (gebaseerd op Conformal Prediction).

  • De Analogie: Stel je voor dat je een groep vrienden vraagt om de beste kenmerken van een vogel te beschrijven. Sommigen zijn heel zeker, anderen twijfelen. In plaats van alles over te nemen, laten we een "rechter" (ons wiskundige model) de lijst controleren.
  • De rechter kijkt naar drie dingen:
    1. Discriminatie: Is deze eigenschap uniek voor deze vogel? (Als "gele ogen" ook bij duiven voorkomen, is het niet uniek genoeg).
    2. Dekking: Hebben we genoeg eigenschappen om het hele plaatje te zien? (Niet alleen de snavel, maar ook de vleugels en de veren).
    3. Verscheidenheid: Herhalen we ons niet? (Als we "donkere veren" en "grijze veren" beide opschrijven, is dat dubbelop).

Deze methode garandeert wiskundig dat we alleen de eigenschappen houden waar we redelijk zeker van zijn, en dat we de "hallucinaties" (de verzonnen dingen) eruit filteren. Het is alsof we een filter gebruiken dat garandeert dat we niet meer dan 20% fouten maken, ongeacht hoe gek de AI-assistent soms is.

2. De "Puzzel-vuller" (Data Augmentation)

Nu we een betrouwbare lijst hebben, ontstaat er een nieuw probleem: sommige goede eigenschappen komen heel weinig voor in de foto's.

  • De Analogie: Stel je voor dat je een puzzel maakt, maar voor één specifiek stukje (bijvoorbeeld "witte vleugelpunt") heb je maar één foto in je hele verzameling. Je leert je assistent dan niet goed hoe dat stukje eruitziet. Hij negeert dit stukje en raakt de puzzel verkeerd.

De auteurs lossen dit op met een slimme data-augmentatie (het maken van extra voorbeelden).

  • De Analogie: Ze nemen een goed stukje van een andere foto (bijvoorbeeld een foto waar "witte vleugelpunt" wél duidelijk te zien is) en plakken dit voorzichtig op de foto waar het ontbreekt.
  • De Belangrijke Regel: Ze plakken het niet zomaar ergens. Ze kijken naar de "onzekerheids-meter". Als er al een ander betrouwbaar stukje op die plek zit, plakken ze het niet daar overheen. Ze zoeken een lege plek waar het past. Zo vullen ze de gaten in hun leerboek zonder de bestaande informatie te verstoren.

Waarom is dit belangrijk?

Zonder deze methode zou de AI-assistent ofwel verward zijn door de verzonnen eigenschappen van de grote taalmodellen, ofwel vergeten worden om te leren van de zeldzame maar belangrijke eigenschappen.

Met ULCBM krijgen we een assistent die:

  1. Niet hallucineert: Hij weet wanneer hij het niet zeker weet en houdt die twijfel in zijn berekening.
  2. Alles leert: Hij leert ook van de zeldzame eigenschappen door slimme "plakwerk"-technieken.
  3. Betrouwbaar is: We weten wiskundig dat de foutmarge binnen de perken blijft.

Kortom: Ze hebben een manier gevonden om de kracht van slimme taal-AI's te gebruiken voor het begrijpen van beelden, zonder dat we hoeven te vertrouwen op hun soms dwaze fantasieën. Het is alsof je een zeer creatieve schrijver (de taal-AI) inhuurt, maar je laat een strenge redacteur (de onzekerheids-meter) en een slimme collage-maker (de data-augmentatie) het werk controleren en verbeteren.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →