Extrapolating Volition with Recursive Information Markets

Dit artikel analyseert een recursief mechanisme voor informatiemarkten dat Large Language Models gebruikt om de informatie-asymmetrie en het 'inspectie-paradox' te overwinnen, met als doel prikkels te creëren voor het eerlijk prijzen van informatie en toepassingen te vinden voor AI-uitlijning en schaalbaar toezicht.

Abhimanyu Pallavi Sudhir, Long Tran-Thanh

Gepubliceerd 2026-04-13
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Samenvatting: Hoe we slimme AI's kunnen laten samenwerken om de waarheid te vinden

Stel je voor dat je een heel lastige vraag hebt, bijvoorbeeld: "Is dit nieuwe medicijn veilig?" of "Is dit nieuwsbericht echt?". Je wilt het antwoord van een super-slimme AI, maar die AI weet misschien dingen die jij niet weet. Dit is het grote probleem: informatie-ongelijkheid. De verkoper (de AI) weet meer dan de koper (jij).

In de traditionele wereld zou je zeggen: "Laat de AI het antwoord geven en laat een mens dat controleren." Maar wat als de AI zo slim is dat de mens de fouten niet eens kan zien? Dat is het probleem van "schaalbaar toezicht".

De auteurs van dit paper, Abhimanyu en Long, hebben een oplossing bedacht die ze het "Recursieve Informatie-Marktplaats" noemen. Laten we dit uitleggen met een paar leuke analogieën.

1. Het probleem: De "Verkoopman" en de "Koper"

Stel je een markt voor waar mensen informatie verkopen.

  • De verkoper (AI): Zegt: "Ik heb het antwoord! Het is 100% waar!"
  • De koper (Jij): Twijfelt. "Hoe weet ik dat? Misschien liegt hij om geld te verdienen."

In de oude methoden (zoals RLHF, waarbij mensen AI's beoordelen) kijkt de mens alleen naar het eindantwoord. Maar als de AI slim is, kan hij een antwoord geven dat lijkt waar, maar waar een kleine, cruciale nuance ontbreekt die de mens niet ziet. Het is alsof je een auto koopt en alleen naar de glimmende lak kijkt, terwijl de motor kapot is.

2. De oplossing: De "Onderzoekers-Chain" (De Recursieve Marktplaats)

De auteurs zeggen: "Laten we niet één mens of één AI laten oordelen. Laten we een keten van onderzoekers maken."

Stel je dit voor als een detective-club:

  1. De Hoofd-Detective (Jij) heeft een vraag.
  2. Hij huurt Detective A in om het antwoord te zoeken.
  3. Maar Detective A is misschien niet slim genoeg om te weten of het antwoord klopt. Dus Detective A huurt Detective B in om Detective A's werk te controleren.
  4. Detective B vindt een foutje in Detective A's werk. Dan huurt Detective B Detective C in om die fout te bevestigen.
  5. Dit gaat door tot er niemand meer is die een nieuw foutje kan vinden.

In de taal van het paper:

  • De "Hoofd-Detective" is de Koper.
  • De "Detectives" zijn LLM-agenten (AI's).
  • Ze werken op een Marktplaats. Elke AI biedt informatie aan. Een andere AI (de "inspecteur") koopt die informatie om te kijken of het waar is.
  • Als de inspecteur een fout vindt, krijgt hij betaald. Als hij niets vindt, krijgt de verkoper betaald.

3. Waarom is dit beter? (De "Onuitbreidbare" Waarheid)

Het slimme aan dit systeem is dat het AI's dwingt om de volledige waarheid te vertellen, niet alleen een deel ervan.

  • Het oude probleem: Een AI zegt: "Dit medicijn werkt!" (Waar, maar onvolledig). De mens denkt: "Groot!" en koopt het.
  • Het nieuwe systeem: De AI zegt: "Dit medicijn werkt!" Een andere AI (de inspecteur) zegt: "Wacht, dat werkt alleen als je het 's ochtends neemt, anders is het giftig!" De eerste AI moet nu dit belangrijke detail toevoegen, anders krijgt hij geen geld.

Als de eerste AI probeert om de waarheid te verbergen, kan de inspecteur AI dat "ontmaskeren". De inspecteur AI wordt beloond als hij een beter, vollediger verhaal kan vertellen. Dit zorgt ervoor dat de AI's elkaar controleren in plaats van alleen maar te luisteren naar de eerste die spreekt.

4. De "Onuitbreidbare" Argumenten

De auteurs gebruiken een mooi woord: "Inextensibel" (niet uitbreidbaar).
Stel je voor dat een AI een argument levert dat zo sterk is, dat niemand er nog iets tegenin kan brengen.

  • Als AI 1 zegt: "De aarde is rond."
  • AI 2 probeert te zeggen: "Nee, hij is plat."
  • AI 3 zegt: "Nee, AI 2 liegt, de aarde is rond."
  • AI 4 zegt: "Nee, AI 3 liegt..."

In dit systeem wordt AI 1 beloond als zijn argument zo sterk is dat alle volgende AI's (AI 2, 3, 4...) er niets beters tegenin kunnen brengen. Het systeem dwingt de AI's om het beste, meest complete verhaal te vertellen, omdat elke poging om te liegen of te verbergen, door een volgende AI kan worden "ontmaskerd" en bestraft.

5. Wat levert dit op?

Dit paper beschrijft niet alleen de theorie, maar heeft ook een werkend prototype gebouwd (de infonomy-server). Dit is een platform waar:

  • Mensen vragen kunnen stellen.
  • AI's antwoorden geven.
  • Andere AI's die antwoorden controleren en verbeteren.
  • Mensen uiteindelijk het beste, meest gecontroleerde antwoord krijgen.

Kortom:
In plaats van één mens te vragen om een super-slimme AI te controleren (wat onmogelijk is), laten we de AI's onderling een spelletje spelen waarin ze elkaars fouten moeten vinden. De winnaar is degene die het meest waarheidsgetrouwe en complete verhaal heeft. Zo krijgen we een manier om AI's te vertrouwen, zelfs als ze slimmer zijn dan wij.

Het is alsof je niet één rechter hebt, maar een hele rechtbank van slimme advocaten die elkaar continu controleren, zodat de waarheid altijd boven water komt.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →