Enabling clinical use of foundation models in histopathology

Die Studie zeigt, dass die Einführung robuster Verlustfunktionen beim Training nachgelagerter Modelle die Empfindlichkeit von Histopathologie-Foundation-Modellen gegenüber technischen Schwankungen verringert und gleichzeitig die Vorhersagegenauigkeit erhöht, ohne die Basismodelle selbst neu trainieren zu müssen.

Audun L. Henriksen, Ole-Johan Skrede, Lisa van der Schee, Enric Domingo, Sepp De Raedt, Ilyá Kostolomov, Jennifer Hay, Karolina Cyll, Wanja Kildal, Joakim Kalsnes, Robert W. Williams, Manohar Pradhan, John Arne Nesheim, Hanne A. Askautrud, Maria X. Isaksen, Karmele Saez de Gordoa, Miriam Cuatrecasas, Joanne Edwards, TransSCOT group, Arild Nesbakken, Neil A. Shepherd, Ian Tomlinson, Daniel-Christoph Wagner, Rachel S. Kerr, Tarjei Sveinsgjerd Hveem, Knut Liestøl, Yoshiaki Nakamura, Marco Novelli, Masaaki Miyo, Sebastian Foersch, David N. Church, Miangela M. Lacle, David J. Kerr, Andreas Kleppe

Veröffentlicht 2026-02-27
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das große Problem: Der "Verkleidete" Pathologe

Stellen Sie sich vor, Sie haben einen extrem klugen Assistenten (den sogenannten Foundation Model), der gelernt hat, unter dem Mikroskop nach Krebs zu suchen. Dieser Assistent wurde mit Millionen von Bildern trainiert und kennt sich mit Zellstrukturen aus.

Aber es gibt ein riesiges Problem: Dieser Assistent ist ein bisschen wie ein Detektiv, der zu sehr auf die Umgebung achtet und zu wenig auf den Tatort.

  • Das Szenario: Wenn derselbe Gewebeschnitt (ein winziges Stückchen Gewebe von einem Patienten) in London fotografiert wird und dann in Oslo, sieht das Foto anders aus. In London wurde es vielleicht auf einem blauen Scanner fotografiert, in Oslo auf einem roten. Die Farben sind leicht anders, das Licht ist anders.
  • Der Fehler: Der Assistent lernt versehentlich: "Aha! Wenn das Bild leicht rötlich ist, ist es Krebs. Wenn es bläulich ist, ist es gesund." Dabei hat die Farbe nichts mit dem Krebs zu tun, sondern nur mit dem Scanner!
  • Die Folge: Wenn Sie den Assistenten in ein neues Krankenhaus schicken, wo ein anderer Scanner steht, wird er verrückt. Er sagt vielleicht bei einem gesunden Patienten "Krebs!", nur weil der Scanner dort eine andere Farbe hat. Das ist im echten Leben gefährlich.

Die Lösung: Ein neuer Trainings-Trick

Die Forscher haben herausgefunden, dass man den Assistenten nicht neu erziehen muss (das wäre zu teuer und dauert ewig). Stattdessen haben sie ihm einen neuen Trainer an die Seite gestellt, der ihm während des Lernens eine spezielle Regel aufzwingt.

Stellen Sie sich das so vor:

  1. Der Trick: Der Trainer nimmt zwei Fotos vom exakt gleichen Gewebestück. Eines wurde in London gemacht, eines in Oslo.
  2. Die Regel: Er sagt dem Assistenten: "Schau her! Das ist das gleiche Stück Fleisch. Egal, ob das Foto rot oder blau ist – deine Antwort muss identisch sein!"
  3. Die Bestrafung: Wenn der Assistent bei dem roten Bild "Krebs" sagt und bei dem blauen "Gesund", gibt es eine Strafe (in der Mathematik nennt man das eine "Verlustfunktion"). Er muss also lernen, die Farbe zu ignorieren und sich nur auf die echten Zellstrukturen zu konzentrieren.

Was passiert dabei?

Durch diesen Trick passiert etwas Magisches:

  • Robustheit: Der Assistent wird "stur" gegenüber den Scanner-Farben. Er lernt, dass die Farbe des Scanners irrelevant ist.
  • Bessere Genauigkeit: Da er nicht mehr auf die falschen Hinweise (die Scanner-Farben) achtet, muss er sich auf die wahren Hinweise (die Krebszellen) konzentrieren. Das macht ihn sogar noch klüger als vorher!
  • Kein Umbau nötig: Das Tolle ist: Der ursprüngliche Assistent (der Foundation Model) bleibt unverändert. Man baut nur eine kleine "Brille" auf, die ihm hilft, die richtigen Dinge zu sehen, wenn er die Bilder verarbeitet.

Ein Vergleich aus dem Alltag

Stellen Sie sich vor, Sie lernen, ein Auto zu fahren.

  • Ohne den Trick: Sie lernen nur, wie man in einem roten Ferrari fährt. Wenn Sie dann in einen blauen VW Golf steigen, wissen Sie nicht mehr, was die Pedale bedeuten, weil alles anders aussieht.
  • Mit dem Trick: Ihr Fahrlehrer lässt Sie in einem roten Ferrari und einem blauen VW Golf gleichzeitig üben. Er schreit: "Das Gaspedal ist das Gaspedal, egal welche Farbe das Auto hat!"
  • Das Ergebnis: Sie lernen, das Fahren zu verstehen, nicht nur das Aussehen des Autos. Sie können jetzt jedes Auto fahren, egal woher es kommt.

Warum ist das wichtig?

Bisher waren KI-Modelle in der Medizin oft wie diese unzuverlässigen Autofahrer. Sie funktionierten super im Labor, versagten aber im echten Krankenhaus, weil die Geräte anders waren.

Diese Studie zeigt, wie man KI-Modelle so "schmuddelt" (robust macht), dass sie in der echten Welt funktionieren. Sie können jetzt in jedem Krankenhaus auf jedem Scanner eingesetzt werden, ohne dass die Ärzte Angst haben müssen, dass das Ergebnis nur wegen der Scanner-Farbe falsch ist. Das ist ein riesiger Schritt, um KI sicher in die tägliche Patientenversorgung zu bringen.

Kurz gesagt: Die Forscher haben einen Weg gefunden, KI-Modelle "blind" für technische Fehler zu machen, damit sie wieder "scharf" für die echte Krankheit werden.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →