Show Your Work: Verbatim Evidence Requirements and Automated Assessment for Large Language Models in Biomedical Text Processing

Die Studie zeigt, dass die Anforderung von wortwörtlichen Belegen für Large Language Models in der biomedizinischen Textverarbeitung zwar eine automatische Überprüfbarkeit und höhere Zuverlässigkeit bei der Klassifizierung von Studienzulassungskriterien ermöglicht, jedoch zu einem modellabhängigen Kompromiss zwischen Abdeckung und Verifizierbarkeit führt.

Windisch, P., Weyrich, J., Dennstaedt, F., Zwahlen, D. R., Foerster, R., Schroeder, C.

Veröffentlicht 2026-03-04
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre
⚕️

Dies ist eine KI-generierte Erklärung eines Preprints, das nicht peer-reviewed wurde. Dies ist kein medizinischer Rat. Treffen Sie keine Gesundheitsentscheidungen auf Grundlage dieses Inhalts. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

Das große Problem: Der „glänzende Lügner"

Stell dir vor, du hast einen extrem intelligenten, aber manchmal etwas eingebildeten Assistenten (eine Künstliche Intelligenz, kurz KI), der medizinische Texte liest. Dieser Assistent ist super schnell und kann oft raten, ob ein Patient für eine bestimmte Krebsstudie geeignet ist oder nicht.

Das Problem: Manchmal ist der Assistent zu selbstbewusst. Er gibt dir eine Antwort, die zwar zufällig richtig ist, aber er hat sie sich eigentlich nur aus dem Kopf ausgedacht. Er sagt: „Der Patient passt!", aber er kann dir nicht sagen, warum. Das ist wie bei einem Schüler, der die richtige Antwort auf eine Matheaufgabe hinschreibt, aber keine Rechenschritte zeigt. Wenn der Lehrer (oder in diesem Fall ein Arzt) nicht nachschauen kann, ob die Antwort stimmt, traut man ihr nicht ganz.

Die Lösung: „Zeig mir deine Arbeit!"

Die Forscher aus der Schweiz haben sich gedacht: „Lass uns den Assistenten zwingen, seine Arbeit zu zeigen."

Sie haben drei verschiedene KI-Modelle getestet (von OpenAI, Google und Anthropic). Sie gaben ihnen 200 medizinische Abstracts (Zusammenfassungen von Studien) und fragten: „Ist dieser Patient für die Studie geeignet?"

Sie haben zwei Szenarien durchgespielt:

  1. Der normale Modus: Die KI gibt nur das Ergebnis (Ja/Nein) aus.
  2. Der „Zeig-mir-die-Arbeit"-Modus: Die KI muss das Ergebnis nennen UND einen wörtlichen Satz aus dem Text zitieren, der beweist, warum sie zu diesem Ergebnis kommt.

Was ist passiert? (Die Ergebnisse)

Hier kommen die interessanten Vergleiche:

1. Der „Zitier-Zwang" macht die KI vorsichtiger
Wenn die KI gezwungen wurde, einen Beweis aus dem Text zu liefern, gab sie öfter zu: „Ich weiß es nicht genau" (sie zog sich zurück).

  • Vergleich: Stell dir einen Detektiv vor. Wenn er nur das Ergebnis nennen muss, sagt er vielleicht schnell „Der Dieb ist der Butler". Wenn er aber gezwungen ist, den Fingerabdruck auf dem Messer zu zeigen, sagt er vielleicht: „Ich bin mir nicht sicher, ich brauche mehr Beweise."
  • Ergebnis: Die KI wurde etwas langsamer und gab weniger Antworten, aber die, die sie gab, waren oft besser durchdacht.

2. Nicht jede Antwort ist ein echter Beweis
Das war die große Überraschung. Die KI war gut darin, einen Satz aus dem Text zu kopieren (das nennt man „mechanisch gültig"). Aber manchmal war der kopierte Satz nicht wirklich ein Beweis für die Antwort.

  • Vergleich: Stell dir vor, du fragst jemanden: „Warum ist der Himmel blau?" und er antwortet: „Weil das Wetter heute schön ist." Der Satz ist ein echter Satz aus einem Buch (mechanisch korrekt), aber er beweist nichts.
  • Ergebnis: Die KI konnte oft einen passenden Satz finden, aber ein zweiter KI-Richter (ein „Gutachter") sagte in vielen Fällen: „Nein, dieser Satz beweist deine Antwort nicht wirklich."

3. Jeder Assistent ist anders
Die drei getesteten KIs (GPT, Gemini, Claude) haben sich ganz unterschiedlich verhalten.

  • Gemini war sehr schnell und gab fast immer eine Antwort, aber die Zitate waren oft sehr unterschiedlich, wenn man die Frage dreimal stellte (wie ein unruhiger Schüler, der jedes Mal eine andere Begründung erfindet).
  • Claude wurde unter dem „Zitier-Zwang" etwas ungenauer.
  • GPT wurde etwas besser, wenn es Beweise liefern musste.

Das Fazit: Ein Filter für Vertrauen

Die Studie zeigt uns einen neuen Weg, wie wir KI in der Medizin nutzen können, ohne blind zu vertrauen.

Stell dir die KI nicht als einen Alleswisser vor, sondern als einen Praktikanten.

  • Ohne Beweis ist der Praktikant wie ein Junge, der behauptet, er habe den Garten gefegt, aber man sieht keine Spuren.
  • Mit dem „Zeig-mir-die-Arbeit"-Modus muss er dir die leeren Eimer und den Besen zeigen.

Der Clou: Wenn die KI einen Beweis liefert, können wir einen zweiten Schritt einbauen (einen „Gutachter"). Wenn der Gutachter sagt: „Ja, dieser Satz beweist die Antwort", dann können wir die Antwort automatisch nutzen. Wenn der Gutachter sagt: „Nein, das ist Quatsch", dann schicken wir die Aufgabe an einen echten Menschen zur Überprüfung.

Zusammengefasst:
Das „Zeig-mir-die-Arbeit"-Prinzip macht die KI nicht perfekt, aber es schafft eine Sicherheitslücke. Es zwingt die KI, ehrlicher zu sein, und erlaubt uns, nur die Antworten zu automatisieren, die wirklich bewiesen sind. Alles andere wird an den Menschen weitergeleitet. Das ist der Schlüssel, um KI sicher in der Medizin einzusetzen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →