Prompting with the human-touch: evaluating model-sensitivity of foundation models for musculoskeletal CT segmentation

Dit onderzoek evalueert de gevoeligheid van elf promptbare foundation modellen voor de segmentatie van musculoskeletale CT-beelden en concludeert dat de prestaties sterk variëren afhankelijk van de prompting-strategie en anatomische structuur, waarbij de prestaties met menselijke prompts lager zijn dan die met ideale prompts, wat de selectie van het meest geschikte model voor klinische toepassingen bemoeilijkt.

Caroline Magg, Maaike A. ter Wee, Johannes G. G. Dobbe, Geert J. Streekstra, Leendert Blankevoort, Clara I. Sánchez, Hoel Kervadec

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Samenvatting: Hoe goed zijn slimme AI's echt als ze door mensen worden aangestuurd?

Stel je voor dat je een superkrachtige robot hebt die foto's van botten kan "schilderen" (segmenteren) op een CT-scan. Deze robot is getraind op miljoenen voorbeelden en kan bijna alles zien. Maar er is een probleem: de robot heeft een beetje hulp nodig om te weten waar hij precies moet beginnen. Hij heeft een "prompt" nodig, zoals een vinger die op het scherm wijst of een kadersetje dat je om een bot trekt.

De onderzoekers van dit paper wilden weten: Hoe goed werkt deze robot als jij (een mens) de vinger of het kader zet, in plaats van een computer die perfect weet waar het bot zit?

Hier is de uitleg, vertaald naar alledaagse taal:

1. Het probleem: De "Perfecte" vs. de "Menselijke" aanwijzing

In de wetenschap testen ze deze robots vaak met "perfecte" aanwijzingen. Stel je voor dat je een robot vraagt om een appel te tekenen, en je geeft hem een puntje dat exact in het midden van de appel zit, berekend door een computer. De robot doet het dan fantastisch.

Maar in het echte leven (bij een arts in het ziekenhuis) wijst een mens met de muis. Die wijst misschien net iets links of rechts, of trekt een kader dat net iets te groot is.

  • De ontdekking: De onderzoekers lieten 20 medische studenten (die nog geen experts waren) deze aanwijzingen geven. Ze ontdekten dat de robots, zelfs de slimste, veel minder goed werden als ze door mensen werden aangestuurd. De "perfecte" tests overschatten dus hoe goed ze in de praktijk zijn.

2. De test: Een wedstrijd tussen 11 robots

Ze namen 11 verschillende modellen (de "robots") en testten ze op CT-scans van vier lichaamsdelen:

  • De pols (veel kleine botjes)
  • Het onderbeen (een groot bot met een implantaat)
  • De schouder
  • Het heupgewricht

Ze gebruikten twee methodes om de robots te testen:

  1. De "Ideale" manier: De computer geeft de perfecte coördinaten (alsof je een laserpointer gebruikt).
  2. De "Menselijke" manier: Studenten zetten handmatig een kader of puntje op het scherm.

3. De winnaars (en verliezers)

  • 2D-modellen (laag voor laag): De modellen die oorspronkelijk getraind waren op gewone foto's (zoals van honden en auto's) bleken verrassend goed te zijn voor medische beelden, zelfs beter dan de modellen die specifiek voor de geneeskunde waren getraind. De winnaar hier was SAM2.1.
  • 3D-modellen (hele volume): Hier deed Med-SAM2 het beste.
  • De menselijke factor: Toen de studenten de aanwijzingen gaven, daalde de prestatie van alle robots. Het was alsof je een Formule 1-auto laat rijden op een modderig fietspad: de auto is snel, maar het pad maakt het lastig.

4. Waarom is dit lastig? (De analogie van de "Vage instructie")

De onderzoekers ontdekten dat de robots erg gevoelig zijn voor kleine foutjes in de aanwijzingen.

  • Voorbeeld: Als je een kader om een heup plaatst, en je zet het net iets te breed, kan de robot denken: "Ah, ik moet ook de spier erbij schilderen!" of "Oh, ik moet stoppen bij de lucht!".
  • Complexiteit: Bij simpele, ronde botjes (zoals in de pols) was iedereen het erover eens waar ze moesten wijzen. Maar bij complexe vormen (zoals een heup met een metalen implantaat) liepen de mensen enorm uiteen. De ene student tekende een klein vierkantje, de andere een groot vierkantje. De robots konden hierdoor niet goed beslissen wat ze moesten doen.

5. De belangrijkste les: "Robuustheid" is de nieuwe superkracht

De onderzoekers concludeerden dat we niet alleen moeten kijken naar hoe goed een robot is met perfecte instructies, maar vooral naar hoe stabiel hij is als de instructies niet perfect zijn.

  • De winnaar in stabiliteit: Het model nnInteractive bleek het minst gevoelig voor de "wankelende hand" van de mens. Als de mens een beetje afwijkt, blijft dit model toch een redelijk goed resultaat geven.
  • De les: Als je een AI kiest voor een ziekenhuis, wil je niet de snelste auto die crasht bij de minste hobbel, maar de auto die veilig blijft rijden, zelfs als de bestuurder niet perfect stuurt.

Conclusie in één zin

Deze studie waarschuwt dat we niet blindelings moeten vertrouwen op de hoge scores van AI-modellen in wetenschappelijke papers (die vaak met "perfecte" data werken), maar dat we moeten testen hoe deze modellen reageren op de onvolmaakte, menselijke aanwijzingen die we in het echte leven gebruiken. De beste AI is niet degene die het snelst is, maar degene die het meest vergevingsgezind is voor menselijke fouten.