Triggering hallucinations in model-based MRI reconstruction via adversarial perturbations

Deze studie toont aan dat generatieve modellen voor MRI-reconstructie, zoals UNet en VarNet, kwetsbaar zijn voor kleine adversariële verstoringen die hallucinaties veroorzaken die niet door traditionele kwaliteitsmetingen worden gedetecteerd, wat wijst op de noodzaak van nieuwe detectiemethoden en robuustere trainingsroutines.

Suna Buğday, Yvan Saeys, Jonathan Peck

Gepubliceerd 2026-02-24
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De "Magische" MRI: Waarom Kunstmatige Intelligentie soms Dingen ziet die er niet zijn

Stel je voor dat je een foto maakt van een oud, stoffig schilderij. Je wilt het schoonmaken en de kleuren weer helder maken, zodat je de details kunt zien. In de medische wereld doen artsen iets vergelijkbaars met MRI-schermen. Patiënten bewegen, de machines maken ruis, en soms missen ze stukjes informatie. Om een scherp beeld te krijgen, gebruiken ze slimme computerprogramma's (kunstmatige intelligentie of AI) om de ontbrekende stukjes in te vullen.

Het probleem? Deze slimme computers zijn soms te creatief. Ze "hallucineren". Ze vullen de ontbrekende stukjes in met details die er helemaal niet zijn, alsof ze een verhaal verzinnen in plaats van de werkelijkheid te tonen. In een ziekenhuis kan dit dodelijk zijn: de computer ziet een tumor waar geen is, of ziet een gezonde knie als gebroken.

De auteurs van dit onderzoek (Suna, Yvan en Jonathan) hebben een experiment gedaan om te bewijzen hoe kwetsbaar deze systemen zijn. Hier is hoe ze het deden, vertaald in een simpel verhaal:

1. De "Onzichtbare Ruis" (De Aanval)

Stel je voor dat je een heel stil gesprek hebt in een kamer. Als je heel zachtjes een piepje toevoegt (zoals een vlieg die tegen het raam vliegt), hoor je het misschien niet, maar het verstoort de concentratie.

De onderzoekers hebben een soort "digitale vlieg" bedacht. Ze voegden een heel klein beetje ruis toe aan de ruwe MRI-data voordat deze naar de computer ging. Voor het menselijk oog was dit ruisje onzichtbaar; het leek alsof er niets gebeurd was. Maar voor de AI was dit een signaal om te gaan "dromen".

2. De "Magische Toverstaf" (Het Resultaat)

Toen de computer deze "vervuilde" data kreeg, gebeurde er iets vreemds. De AI probeerde het beeld te reconstrueren, maar door dat kleine ruisje dacht hij: "Oh, hier moet een lijn zijn!" of "Hier is een scheurtje!".

  • Het experiment: Ze lieten de AI een hersenfoto maken. Door de ruis zag de AI plotseling een extra plooitje in de hersenen dat er niet was.
  • Of: Ze lieten een knie zien. De AI zag plotseling een gescheurd kraakbeen, terwijl de knie helemaal gezond was.

Het is alsof je een schilderij bekijkt en door een heel klein stofje op je bril, je ineens een monster ziet dat er niet is. De computer is zo gevoelig dat hij uit het niets een ziekte "creëert".

3. De "Valse Vriend" (De Metingen)

Je zou denken: "Wacht, als de computer een fout maakt, zien we dat toch wel aan de cijfers? De kwaliteit moet toch slechter zijn?"

De onderzoekers keken naar de standaard meetlatjes die artsen en ingenieurs gebruiken (zoals scherpte en helderheid). Het verrassende nieuws? De meetlatjes gaven geen alarm.
De computer zei: "De kwaliteit is nog steeds 99% perfect!" terwijl er een groot foutje in het beeld zat. Het is alsof je een vervalst biljet hebt dat er zo perfect uitziet dat de geldautomaat er geen verschil in ziet. De "hallucinaties" waren zo goed verstopt dat de traditionele controles ze niet konden zien.

Waarom is dit gevaarlijk?

Dit onderzoek laat zien dat de slimme AI's die we nu gebruiken voor MRI's, heel fragiel zijn. Ze kunnen makkelijk worden "gehackt" door een heel klein beetje ruis, en ze doen dit zonder dat we het merken.

  • Het risico: Een arts kan een diagnose stellen op basis van een beeld dat de computer heeft verzonnen.
  • De oplossing? We kunnen niet zomaar vertrouwen op de huidige meetmethoden. We hebben nieuwe, slimmere manieren nodig om te checken of een beeld echt is of een "droom" van de computer. Misschien moeten we de computers zelfs trainen met deze "valse" beelden, zodat ze leren om niet meer in de val te trappen.

Kort samengevat:
Deze slimme MRI-computers zijn als een te enthousiaste illustrator die soms te veel toevoegt aan een tekening. De onderzoekers hebben bewezen dat je met een heel klein beetje "ruis" deze illustrator kunt dwingen om valse ziektes te tekenen, en dat onze huidige controles dit niet eens merken. Het is een waarschuwing: we moeten voorzichtig zijn met AI in de geneeskunde en beter leren hoe we deze "hallucinaties" kunnen opsporen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →