Replayable Financial Agents: A Determinism-Faithfulness Assurance Harness for Tool-Using LLM Agents

Dit paper introduceert het Determinism-Faithfulness Assurance Harness (DFAH), een framework dat aantoont dat besluitvormingsdeterminisme en nauwkeurigheid bij financiële tool-gebruikende LLM-agenten niet met elkaar correleren en daarom onafhankelijk moeten worden gemeten om te voldoen aan auditvereisten.

Raffi Khatchadourian

Gepubliceerd Tue, 10 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, digitale assistent hebt die voor een bank werkt. Deze assistent moet beslissingen nemen: "Is deze transactie verdacht?" of "Mag deze belegging?"

In de wereld van de financiële wetgeving is er één regel die heilig is: Als je dezelfde vraag stelt, moet je exact hetzelfde antwoord krijgen. Als een toezichthouder (zoals een inspecteur van de bank) vraagt: "Waarom heb je gisteren deze transactie geblokkeerd?", moet het systeem precies dezelfde reden en hetzelfde antwoord geven als toen.

Het probleem? De slimste AI-modellen (de "frontier" modellen) zijn soms zo creatief en flexibel, dat ze bij dezelfde vraag een heel ander pad kiezen om tot een antwoord te komen. Ze zijn als een kunstenaar: elke tekening is uniek, maar voor een bankrekening wil je geen kunst, je wilt een exacte kopie.

Hier is wat dit paper doet, vertaald in alledaags Nederlands:

1. De Probleemstelling: De "Willekeurige" AI

De onderzoekers ontdekten iets verrassends. Ze dachten: "Als een AI slimmer is, is hij ook consistenter."
Nee dus.
Het bleek dat de slimste, duurste AI-modellen juist minder betrouwbaar zijn als het gaat om het geven van exact hetzelfde antwoord. Ze zijn als een genie dat soms een briljant idee heeft, maar de volgende dag een ander briljant idee bedenkt voor hetzelfde probleem. Voor een bank is dat gevaarlijk: je kunt niet uitleggen aan de wet waarom je gisteren "ja" zei en vandaag "nee", zelfs als je slimme AI het "slimmer" vond.

Aan de andere kant zijn de kleinere, "dommere" modellen (zoals de 7 tot 20 miljard parameter modellen) als een robot die een strikt script volgt. Ze doen precies hetzelfde, elke keer weer. Maar ze zijn soms dom: ze zeggen "ja" omdat ze het script zo hebben geleerd, ook als het antwoord "nee" had moeten zijn.

2. De Oplossing: De "DFAH" (De Controle-Kit)

De auteur, Raffi, heeft een nieuwe meetlat bedacht die hij de DFAH noemt. Je kunt dit zien als een twee-in-één testkit voor je AI-assistent:

  • De "Repetitie-test" (Determinisme): Als je de AI 10 keer dezelfde opdracht geeft, doet hij dan precies hetzelfde? (Zoals een acteur die elke avond exact dezelfde tekst zegt).
  • De "Eerlijkheidstest" (Faithfulness): Gebruikt de AI de echte feiten die hij heeft opgezocht, of verzint hij mooie verhalen om zijn antwoord te rechtvaardigen? (Zoals een student die het antwoord verzint in plaats van het boek te raadplegen).

3. De Grote Ontdekking: Je kunt niet alles hebben

De belangrijkste conclusie van het paper is een beetje teleurstellend, maar heel belangrijk: Er is geen AI die zowel perfect consistent is als perfect slim.

  • De "Robuuste Robot" (Kleine modellen): Ze doen altijd precies hetzelfde (100% consistent), maar ze maken veel fouten in de inhoud (slechte nauwkeurigheid). Ze zijn als een automaat die altijd dezelfde munt uitwerpt, ook als je een ander bedrag nodig hebt.
  • De "Creatieve Genieën" (Grote modellen): Ze zijn vaak slimmer en vinden betere oplossingen, maar ze zijn onvoorspelbaar. Soms kiezen ze een andere route om naar hetzelfde doel te komen. Voor een bank is dat een nachtmerrie voor de audit.

De onderzoekers hebben bewezen dat consistentie en intelligentie niet met elkaar samenhangen. Je kunt niet zeggen: "Omdat deze AI slim is, is hij ook betrouwbaar." Je moet ze apart testen.

4. De Praktische Adviezen: Welke AI voor welk werk?

Op basis van deze tests geeft het paper een duidelijk advies voor banken:

  • Voor strikte controle (zoals anti-witwas of belasting): Gebruik de "Robuuste Robot" (kleine modellen). Je wilt liever een iets minder slim antwoord dat je altijd kunt uitleggen en reproduceren, dan een briljant antwoord dat je niet kunt verklaren.
  • Voor advies en onderzoek: Gebruik de "Creatieve Genieën" (grote modellen), maar laat dan altijd een mens de eindcontrole doen. De mens fungeert hier als de "garant" voor consistentie.

Samenvattend in een metafoor

Stel je voor dat je een recept moet kopiëren voor een grote banketbakkerij.

  • De kleine AI is als een machine die het recept letterlijk overtypet. Het ziet er elke keer hetzelfde uit (perfect voor de inspecteur), maar de taart is misschien een beetje droog (minder slim).
  • De grote AI is als een top-chef. Hij maakt elke keer een prachtige taart, maar hij gebruikt soms een andere lepel, een ander mengsel of een andere ovenstand. De taart is lekkerder, maar als de inspecteur vraagt: "Waarom gebruikte je gisteren een houten lepel en vandaag een metalen?", kan de chef niet hetzelfde antwoord geven.

De les van dit paper: In de financiële wereld, waar wetten en audits alles zijn, moet je eerst zorgen dat je machine het recept exact kan kopiëren. Pas daarna mag je kijken of de taart lekkerder wordt. En vergeet niet: je kunt niet verwachten dat je beide tegelijk krijgt zonder een menselijke handtekening.