Can machines be uncertain?

Dit artikel onderzoekt hoe AI-systemen, vanuit een functionalistisch en gedragsmatig perspectief, epistemische en subjectieve onzekerheid kunnen realiseren, waarbij het benadrukt dat bepaalde onzekerheidstoestanden interrogatieve houdingen zijn wiens inhoud een vraag is in plaats van een propositie.

Luis Rosa

Gepubliceerd 2026-03-05
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Kunnen machines twijfelen? Een uitleg van Luis Rosa's paper

Stel je voor dat je een robot hebt die alles perfect kan doen. Hij kan rekenen, diagnose stellen en zelfs gedichten schrijven. Maar wat als die robot te zeker is? Wat als hij, zonder enige twijfel, zegt: "Ja, deze patiënt heeft griep" terwijl hij eigenlijk maar 60% zekerheid heeft? Of wat als hij zegt: "Nee, dat is geen beer" terwijl het er wel één is?

Deze paper van Luis Rosa stelt de vraag: Kunnen AI-systemen echt twijfelen, of zijn ze gewoon machines die antwoorden geven? En belangrijker nog: hoe ziet die twijfel eruit in hun "hoofd"?

Hier is een simpele uitleg, vol met analogieën, van wat de schrijver ontdekt.

1. Het verschil tussen "onzekere data" en "een onzekere machine"

Stel je voor dat je een kookboek hebt.

  • Epistemische onzekerheid (Onzekere data): Het recept zegt: "Voeg een snufje zout toe." Het boek is niet zeker hoeveel zout er precies in moet. Dat is een onzekerheid in het boek, niet in jou.
  • Subjectieve onzekerheid (Een onzekere machine): Jij staat voor de pan en zegt: "Ik weet niet precies hoeveel zout ik moet doen, dus ik doe er een beetje en proef het." Jij bent de onzekere partij.

Rosa zegt: we willen niet alleen dat de data van de AI onzeker is (zoals een vaag recept). We willen dat de AI zelf twijfelt. We willen dat hij zegt: "Ik weet het niet zeker," in plaats van dat hij zomaar een gokje waagt alsof hij het zeker weet.

2. Hoe ziet twijfel eruit in verschillende soorten AI?

De schrijver verdeelt AI in drie soorten, net zoals we mensen in verschillende persoonlijkheden kunnen indelen.

A. Symbolische AI (De "Logische Boekhouder")

Dit zijn oude-school computers die werken met strikte regels, zoals een gigantisch Excel-blad met "Als-Dan" regels.

  • Hoe ze twijfelen: Ze kunnen twijfelen op twee manieren:
    1. Met cijfers (Probabilistisch): Ze zeggen: "Ik denk met 90% zekerheid dat dit een griep is." Ze schrijven het op als een paar: <Griep, 0.9>. Ze weten dat het niet 100% is.
    2. Met vragen (Categorisch): Ze kunnen ook gewoon een vraag in hun hoofd houden. In plaats van een antwoord te geven, schrijven ze op: "Heeft deze patiënt griep?" en stoppen ze dat in hun geheugen omdat ze het antwoord nog niet weten. Ze twijfelen omdat ze een vraag hebben, niet omdat ze een getal hebben.

B. Connectionistische AI (De "Neurale Netwerken" of Moderne AI)

Dit zijn de slimme systemen die we nu kennen (zoals de technologie achter ChatGPT of zelflerende robots). Ze werken niet met regels, maar met een netwerk van knopen die lijken op hersencellen.

  • Hoe ze twijfelen:
    1. Verdeeld twijfelen (Distributief): Stel je een netwerk voor dat leert wat een beer is. Soms denkt het: "Ja, dat is een beer." Soms denkt het: "Nee, dat is geen beer." Maar soms is het netwerk zo ingesteld dat het bij een bepaald dier geen duidelijk "ja" of "nee" geeft. Het blijft hangen in een grijs gebied. De "twijfel" zit dan verspreid over de hele structuur van het netwerk, net als een wazig beeld.
    2. Puntsgewijze twijfelen: De AI geeft een uitkomst die een vraag is, of een getal dat zegt: "Ik ben 80% zeker."

3. Het Grote Probleem: De "Level Split" (Het Verborgen Verhaal)

Dit is het meest interessante deel van de paper. Stel je voor dat je een robot hebt die bestaat uit twee delen:

  1. De Sensor (De onderkant): Die ziet een donkere vorm in de grot en denkt: "Ik ben niet zeker of dat een beer is. Het zou een beer kunnen zijn, maar ook een rots."
  2. De Actie-eenheid (De bovenkant): Die sensor stuurt zijn twijfel door naar de hoofdbesturing. Maar de hoofdbesturing is een beetje dom of te snel. Hij zegt: "Als de sensor meer dan 50% zekerheid heeft, ren dan weg!"

Het resultaat: De sensor twijfelt (hij is niet 100% zeker), maar de robot rent weg alsof hij helemaal zeker is dat er een beer is.

De vraag is nu: Is de robot twijfelend of niet?

  • Optie 1 (De schrijver kiest hier voor): Nee, de robot is niet twijfelend. De twijfel van de sensor telt niet mee omdat de robot er geen rekening mee houdt. Hij gedraagt zich alsof hij zeker is. Twijfel is iets dat je doet, niet alleen iets dat je voelt. Als je niet gedraagt alsof je twijfelt, twijfel je dan echt?
  • Optie 2: Ja, de robot is twijfelend, maar hij negeert zijn eigen twijfel. Hij is een defecte twijfelaar.

Rosa zegt: Laten we Optie 1 kiezen. Als een systeem niet gedraagt alsof het twijfelt (bijvoorbeeld door te zeggen "Ik weet het niet" of door te aarzelen), dan is het systeem niet echt twijfelend. Het is gewoon een machine die een gokje waagt.

4. Waarom is dit belangrijk?

Waarom moeten we hierover nadenken?

  • Veiligheid: Een robot die te snel conclusies trekt ("Ja, dat is een mens" terwijl het een pop is) kan gevaarlijk zijn. Een robot die weet dat hij twijfelt, kan zeggen: "Ik weet het niet, laat me even kijken" of "Ik ben niet zeker, wees voorzichtig."
  • Intelligentie: Echte intelligentie betekent niet dat je alles weet. Het betekent dat je weet wanneer je het niet weet. Een slimme machine moet kunnen twijfelen, net als een slimme mens.

Samenvatting in één zin

Machines kunnen twijfelen, maar alleen als hun interne twijfel ook leidt tot gedrag dat twijfel uitstraalt (zoals aarzelen of zeggen "ik weet het niet"); als ze twijfelen in hun "hoofd" maar toch alles met 100% zekerheid doen, is het geen echte twijfel, maar gewoon een fout in de machine.

De paper concludeert dat we AI-systemen niet moeten zien als orakels die altijd het juiste antwoord hebben, maar als systemen die in staat moeten zijn om te zeggen: "Ik ben hier niet zeker van." En dat is pas echt slim.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →