Representation Before Retrieval: Structured Patient Artifacts Reduce Hallucination in Clinical AI Systems

Dit onderzoek toont aan dat in plaats van hallucinaties te verminderen, traditionele retrieval-augmented generation (RAG) deze in klinische contexten juist verhoogt, terwijl het gebruik van gestructureerde patiëntartefacten met expliciete herkomstvermelding een effectievere aanpak biedt om de betrouwbaarheid en veiligheid van AI-gestuurde medische beslissingen te waarborgen.

Scanlin, J., Cuesta, A., Varsavsky, M.

Gepubliceerd 2026-02-16
📖 3 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat een Grote Medische Expert (een kunstmatige intelligentie) een patiënt moet behandelen. Het probleem is dat deze expert soms erg slim klinkt, maar feiten verzonnen die er nooit zijn geweest. In de medische wereld noemen we dit "hallucineren", maar voor de patiënt betekent het gewoon: gevaarlijke onzin.

Deze paper onderzoekt hoe we deze expert kunnen helpen om niet meer te verzinnen. Hier is de uitleg, vertaald naar alledaags taal en met een paar verhelderende vergelijkingen.

1. Het Grote Misverstand: "Meer boeken = Beter antwoord"

Vroeger dachten veel mensen: "Als we de AI toegang geven tot alle medische dossiers van de patiënt (zoals een enorme bibliotheek), dan zal hij de juiste antwoorden vinden en niet meer verzinnen." Dit heet Retrieval-Augmented Generation (RAG).

Wat de onderzoekers ontdekten:
Het tegendeel was waar! Toen ze de AI gewoon een berg ongestructureerde medische teksten gaven, ging hij veel meer verzinnen.

  • De analogie: Stel je voor dat je een student vraagt een verslag te schrijven over een patiënt, maar je geeft hem een stapel van 500 losse krantenknipsels, handgeschreven briefjes en rommelige notities. De student raakt in de war, leest de verkeerde stukjes door elkaar en begint feiten te verzinnen om het verhaal "logisch" te laten klinken.
  • Het resultaat: De fouten kwamen niet 1 keer per 20 keer voor, maar 1 keer per 2 keer! De AI werd juist onzekerder en onbetrouwbaarder.

2. De Oplossing: De "Gepolijste Dossiermap"

In plaats van de AI de hele rommelige bibliotheek te geven, maakten de onderzoekers eerst een strakke, gestructureerde samenvatting van de patiëntgegevens. Ze haalden de belangrijkste feiten (bloedwaarden, röntgenfoto's, medicijnen) uit de rommel en zetten ze in een duidelijk overzicht, met een labeltje waar het vandaan komt (provenance).

  • De analogie: In plaats van de student de stapel kranten te geven, geef je hem nu een perfecte, geordende dossiermap. Alles staat in een tabelletje, met duidelijke kopjes en een verwijzing naar de originele bron.
  • Het resultaat: Met deze "dossiermap" maakte de AI veel minder fouten. Het was alsof de student plotseling veel scherper kon nadenken omdat hij niet hoefde te zoeken in de rommel.

3. De Meesterplan: De "Controleur"

De allerbeste methode was een combinatie van die dossiermap én een tweede paar ogen.
De AI schreef het antwoord, en een tweede AI (of een "agent") keek het direct na: "Heeft hij dit echt in de dossiermap staan? Is dit veilig? Zijn er gevaarlijke medicijninteracties?"

  • De analogie: Het is alsof je een chef-kok hebt die het gerecht maakt (de AI), maar er is ook een kwaliteitscontroleur die elke schotel inspecteert voordat hij de klant wordt geserveerd. Als de chef een fout maakt, wordt het gerecht teruggestuurd.
  • Het resultaat: Dit systeem maakte de minste fouten en was het veiligst voor de patiënt.

De Belangrijkste Les

De kernboodschap van dit onderzoek is verrassend:
Het is niet genoeg om de AI gewoon "meer informatie" te geven. Als die informatie rommelig is, wordt de AI juist dommer en gevaarlijker.

  • De metafoor: Het gaat niet om hoeveel informatie je hebt, maar om hoe je die informatie presenteert.
    • Een rommelige berg papier (ruwe data) leidt tot verwarring en leugens.
    • Een strakke, geordende dossiermap (gestructureerde data) leidt tot waarheid en veiligheid.

Kortom: Om een AI veilig te maken voor ziekenhuizen, moeten we eerst de data netjes op orde maken voordat we de AI er zelfs maar bij laten. De kwaliteit van de "voorraad" bepaalt hoe goed de "kok" kan koken.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →