Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities

Deze paper introduceert nieuwe prompt-technieken gebaseerd op onnauwkeurige kansen om de hogere-orde onzekerheid van grote taalmodellen beter te kwantificeren en zo hun betrouwbaarheid in complexe scenario's te vergroten.

Anita Yang, Krikamol Muandet, Michele Caprio, Siu Lun Chau, Masaki Adachi

Gepubliceerd 2026-03-12
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat verwarde assistent hebt die je vragen beantwoordt. Soms weet hij het antwoord met 100% zekerheid, en soms twijfelt hij. Het probleem is dat deze assistent (een Large Language Model of LLM) vaak doet alsof hij het weet, zelfs als hij het eigenlijk niet weet. Hij zegt: "Ik ben 90% zeker," terwijl hij in werkelijkheid helemaal niet weet wat hij moet zeggen.

Deze paper, getiteld "Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities", komt met een slimme oplossing om die twijfel eerlijker te maken.

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. Het Probleem: De "Zekerheids-Bluf"

Stel je voor dat de assistent een gokker is. Als je hem vraagt: "Wie heeft het WK Cricket 2019 gewonnen?", zegt hij misschien: "Ik ben 80% zeker dat het Engeland is."

Maar wat als de vraag dubbelzinnig is? Wat als het antwoord eigenlijk "Engeland én Wales" is, omdat ze samen hebben gehost? Of wat als de assistent gewoon niet genoeg informatie heeft?
De huidige methoden (de "oude manier") geven vaak één getal, zoals "80%". Dit is alsof je zegt: "De kans is 80%." Maar dit vertelt ons niet waarom hij twijfelt. Is het omdat de vraag raar is gesteld? Of omdat hij het gewoon niet weet? De paper laat zien dat deze ene getal vaak misleidend is, vooral bij moeilijke of onduidelijke vragen.

2. De Oplossing: Twee Soorten Twijfel

De auteurs zeggen: "Laten we niet één getal geven, maar twee soorten twijfel onderscheiden." Ze noemen dit Onnauwkeurige Kansen (Imprecise Probabilities).

Stel je voor dat je een weersvoorspelling krijgt.

  • Eerste-orde onzekerheid (De "Wolken"): Dit is de twijfel over het weer zelf. Is het morgen regen of zon? Soms is het gewoon onmogelijk om het te weten, omdat de natuur chaotisch is. In de vraag van de assistent is dit als de vraag zelf verwarrend is (bijv. "Wat is de beste stad?" zonder te zeggen waarvoor).
  • Tweede-orde onzekerheid (De "Voorspeller"): Dit is de twijfel over de voorspeller zelf. Weet de assistent genoeg? Heeft hij genoeg voorbeelden gezien? Is hij verward?

De paper stelt voor om dit te visualiseren als een bereik in plaats van één punt.

  • Oude manier: "Ik denk dat de kans 60% is." (Te specifiek, misschien vals).
  • Nieuwe manier: "Ik denk dat de kans ergens tussen de 20% en 80% ligt."

Die "gaten" in de getallen (van 20 tot 80) vertellen je: "Hé, ik weet het niet precies, want ik ben onzeker over mijn eigen kennis." Dat is de tweede-orde onzekerheid.

3. Hoe werkt het? (De "Gok-Strategie")

Hoe krijg je deze bereiken van een computer? De auteurs gebruiken slimme prompts (vragen aan de AI).

Stel je voor dat je de assistent vraagt om gokprijzen te zetten in plaats van percentages.

  • Vraag: "Als ik je €100 geef als je antwoord klopt, hoeveel zou je maximaal durven te betalen voor die gok?"
  • Als hij het antwoord heel zeker weet, zegt hij: "Ik betaal €90."
  • Als hij twijfelt, zegt hij: "Ik betaal misschien €40, maar misschien ook wel €80, afhankelijk van hoe ik de vraag interpreteer."

Door deze "gokprijzen" te vragen, dwingen ze de assistent om eerlijk toe te geven waar zijn kennis eindigt. Als hij een breed bereik geeft (bijv. €40 tot €80), weten we dat hij onzeker is over zijn eigen zekerheid.

4. Waarom is dit beter? (De "Spiegel")

De paper toont aan dat deze nieuwe methode drie grote problemen oplost:

  1. Dubbelzinnige vragen: Als een vraag twee goede antwoorden heeft (bijv. "Welk land? Engeland of Wales?"), geeft de oude methode vaak een willekeurig getal. De nieuwe methode zegt: "Ik kan niet kiezen, want beide zijn goed," en geeft een breed bereik.
  2. Leren van voorbeelden: Als je de assistent meer voorbeelden geeft (in-context learning), wordt hij slimmer. De oude methode bleef vaak zeggen "Ik twijfel nog steeds", terwijl de nieuwe methode laat zien dat de twijfel (het bereik) kleiner wordt naarmate hij meer voorbeelden ziet.
  3. Zelfreflectie: Soms vraagt de assistent zichzelf: "Was mijn antwoord goed?" De oude methode gaf hier vaak onlogische antwoorden. De nieuwe methode zorgt dat zijn twijfel logisch aansluit bij zijn keuze.

5. Het Resultaat: Betrouwbare Hulp

Kortom, deze paper zegt: "Stop met vragen naar één zeker getal. Vraag naar een bereik."

Door te vragen naar onzekerheid over de onzekerheid, krijgen we een veel eerlijker beeld van wat de AI wel en niet weet. Het is alsof we de AI een spiegel voorhouden die niet alleen zegt "Ik weet het", maar ook "Ik weet dat ik het misschien niet weet, en hier is precies hoe onzeker ik ben."

Dit maakt AI-veiligheid beter, want we kunnen nu beter beslissen wanneer we de AI moeten vertrouwen en wanneer we beter zelf moeten nadenken of een mens moeten raadplegen. Het is een stap van "blinde vertrouwen" naar "slimme samenwerking".