Beyond Attention Heatmaps: How to Get Better Explanations for Multiple Instance Learning Models in Histopathology

Dit artikel introduceert een algemeen framework voor het evalueren van de kwaliteit van warmtekaarten in multiple instance learning-modellen voor histopathologie, waarbij wordt aangetoond dat methoden zoals perturbation en LRP betrouwbaardere verklaringen bieden dan traditionele attention-mechanismen, wat leidt tot betere modelvalidatie en biologische inzichten.

Mina Jamshidi Idaji, Julius Hense, Tom Neuhäuser, Augustin Krause, Yanqing Luo, Oliver Eberle, Thomas Schnake, Laure Ciernik, Farnoush Rezaei Jafari, Reza Vahidimajd, Jonas Dippel, Christoph Walz, Frederick Klauschen, Andreas Mock, Klaus-Robert Müller

Gepubliceerd 2026-03-10
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom de "Lichtjes" op de kaart soms liegen: Een nieuwe manier om AI in de pathologie te begrijpen

Stel je voor dat een patholoog (een arts die weefsels onder de microscoop bekijkt) een gigantische digitale foto van een tumor moet analyseren. Deze foto is zo groot dat hij niet in één keer te zien is; hij bestaat uit miljoenen kleine stukjes, net als een enorme puzzel.

Vroeger keken artsen met het blote oog naar deze puzzelstukjes. Vandaag de dag doet een Kunstmatige Intelligentie (AI) dat voor hen. Maar hier zit een probleem: de AI is een "zwarte doos". We zien het antwoord (bijvoorbeeld: "dit is kanker"), maar we weten niet waarom de AI dat denkt.

Om dit op te lossen, gebruiken wetenschappers vaak warmtekaarten (heatmaps). Dit zijn kaarten op de digitale foto waarop bepaalde stukjes rood worden gekleurd. Rood betekent: "Hier kijkt de AI naar, dit is belangrijk."

Het probleem: De "Aandacht" is vaak een leugen
Deze paper zegt: "Stop met blind vertrouwen op die rode vlekken!"
Veel AI-modellen gebruiken een techniek die "aandacht" (attention) heet. Het is alsof de AI een lantaarnpaal vasthoudt en zegt: "Kijk hier!" Maar onderzoekers hebben ontdekt dat die lantaarnpaal vaak op de verkeerde plekken schijnt. De AI kan wel naar een stukje kijken, maar dat betekent niet dat het daarom de diagnose stelt. Het is alsof een kind dat een raadsel oplost, naar het raam kijkt omdat daar de zon schijnt, terwijl het antwoord eigenlijk in de hoek van de kamer ligt.

De oplossing: Een nieuwe test voor de "waarheid"
De auteurs van dit onderzoek hebben een slimme nieuwe manier bedacht om te testen of die rode vlekken wel eerlijk zijn. Ze noemen dit "Patch Flipping" (het omdraaien van puzzelstukjes).

  • De Analogie: Stel je voor dat je een team van detectives hebt die een moordzaak oplossen. Je wilt weten welke bewijzen echt belangrijk zijn.
    • De oude manier: Je kijkt naar wie de detective aandacht schenkt.
    • De nieuwe manier (deze paper): Je neemt de bewijzen die de AI als belangrijk heeft gemarkeerd en verwijdert ze uit de puzzel.
    • Als de AI daarna haar antwoord verandert (bijvoorbeeld van "schuldig" naar "onschuldig"), dan was dat bewijs echt belangrijk. De kaart was eerlijk.
    • Als de AI haar antwoord niet verandert, dan was die rode vlek op de kaart nep. De AI keek er naar, maar het telde niet mee voor het oordeel.

Wat hebben ze ontdekt?
Ze hebben zes verschillende methoden getest om die rode kaarten te maken. Het resultaat is verrassend:

  1. De "Aandacht"-methode (Attention): Deze is vaak de slechtste. Hij lijkt op een tovenaar die alleen maar naar de meest kleurrijke hoek van de kamer wijst, zonder te weten wat er echt gebeurt.
  2. De winnaars: Drie andere methoden (genaamd Single, LRP en IG) werken veel beter. Ze zijn als een forensisch team dat echt bewijst dat een stukje puzzel de oplossing bepaalt. Ze zijn betrouwbaarder en eerlijker.

Waarom is dit belangrijk? Twee voorbeelden uit de praktijk

De auteurs tonen aan dat met deze betere kaarten je echt nieuwe dingen kunt ontdekken:

  • Voorbeeld 1: Genen zien zonder DNA-test.
    Soms willen artsen weten welke genen in een tumor actief zijn, maar ze hebben geen dure DNA-test. Ze gebruiken de AI om dit te voorspellen op basis van de foto. Met de nieuwe, eerlijke kaarten konden ze zien dat de AI inderdaad keek naar de plekken waar die genen actief waren. Het was alsof ze met een magische bril door de weefsels konden kijken en de genen zagen "branden". Dit geeft vertrouwen dat de AI niet bedriegt.

  • Voorbeeld 2: Het HPV-geheim.
    Bij keelkanker is het belangrijk om te weten of het virus HPV de oorzaak is. Artsen weten al een paar tekenen, maar de AI vond nieuwe, verborgen patronen.

    • Soms keek de AI naar plekken met veel ontstekingscellen (een bekend teken).
    • Maar soms keek de AI naar plekken met weinig ontstekingscellen, terwijl het toch HPV was.
    • Dit betekent dat de AI een heel ander "spoor" had gevonden dan de menselijke arts. Door de kaart te gebruiken, ontdekten ze dat de AI soms naar een heel ander type tumor keek dan verwacht. Dit kan leiden tot betere diagnoses in de toekomst.

Conclusie
Deze paper is een waarschuwing en een gids. Het zegt: "Vertrouw niet zomaar op de rode vlekken die AI maakt. Test ze eerst met onze nieuwe methode."

Als we dit doen, kunnen artsen de AI beter vertrouwen, fouten voorkomen en misschien zelfs nieuwe ziektepatronen ontdekken die zelfs de beste menselijke specialisten over het hoofd zien. Het is alsof we van een wazige kaart naar een scherpe GPS-navigatie zijn gegaan voor de medische wereld.