EveryQuery: Zero-Shot Clinical Prediction via Task-Conditioned Pretraining over Electronic Health Records

Die Studie stellt EveryQuery vor, ein auf elektronischen Gesundheitsakten vortrainiertes Modell, das durch task-konditioniertes Pretraining klinische Vorhersagen in Null-Shot-Szenarien effizienter und genauer als autoregressive Baseline-Modelle trifft, indem es Patientenhistorie und strukturierte Abfragen direkt in eine Wahrscheinlichkeitsvorhersage umwandelt.

Payal Chandak, Gregory Kondas, Isaac Kohane, Matthew McDermott

Veröffentlicht 2026-03-10
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🏥 EveryQuery: Der medizinische „Wissens-Allrounder"

Stell dir vor, du hast einen riesigen, unendlichen Bibliothekskeller voller Patientengeschichten (das sind die elektronischen Gesundheitsakten, kurz EHR). Früher waren die Computerprogramme, die diese Geschichten lasen, wie schlaue, aber sehr langsame Detektive.

Das alte Problem: Der Detektiv, der alles nachstellen muss

Bisherige KI-Modelle (die sogenannten „autoregressiven Modelle") funktionierten wie ein Detektiv, der versucht, die Zukunft vorherzusagen, indem er tausende von möglichen Zukünften simuliert.

  • Die Metapher: Stell dir vor, du willst wissen, ob ein Patient in den nächsten 30 Tagen wieder ins Krankenhaus kommt. Der alte Detektiv nimmt einen Patienten, spielt dann 20 verschiedene Szenarien durch: „Was wäre, wenn er heute ein Medikament nimmt? Was, wenn er morgen Fieber bekommt? Was, wenn er gar nichts tut?"
  • Er macht das für jeden Patienten 20 Mal, zählt dann, wie oft in diesen 20 Spielen die Wiederaufnahme passiert ist, und gibt dir eine grobe Schätzung ab.
  • Das Problem: Das ist extrem langsam (wie 20 Filme pro Patient anzusehen), sehr ungenau (bei seltenen Krankheiten sieht er in den 20 Spielen vielleicht gar nichts, also sagt er „0 %", obwohl es doch passieren könnte) und man kann ihm nicht einfach eine spezifische Frage stellen, ohne den ganzen Prozess neu zu programmieren.

Die neue Lösung: EveryQuery – Der „Frage-Antwort-Meister"

Die Forscher von Harvard und Columbia haben mit EveryQuery einen neuen Ansatz entwickelt. Statt die Zukunft zu simulieren, lernt dieses Modell, direkt auf eine spezifische Frage zu antworten.

  • Die Metapher: Stell dir EveryQuery wie einen super-schnellen Bibliothekar vor, der nicht die Zukunft nachspielt, sondern sofort weiß, wo im Buch die Antwort steht.
  • Du gibst ihm zwei Dinge:
    1. Die Patientengeschichte (das Buch).
    2. Eine klare Frage (den Suchbegriff). Zum Beispiel: „Tritt in den nächsten 30 Tagen ein Herzinfarkt auf?"
  • Der Bibliothekar schaut sich das Buch an, liest die Frage und gibt dir sofort eine Wahrscheinlichkeit aus. Kein Nachspielen, kein Zählen von Szenarien. Ein einziger Blick reicht.

Warum ist das so genial? (Die drei Vorteile)

  1. Sofortige Antworten (Zero-Shot):
    Du musst dem System nicht erst beibringen, wie man Herzinfarkte vorhersagt, und dann wie man Diabetes vorhersagt. Du gibst ihm einfach die Frage für das Herzinfarkt, und er antwortet sofort. Er ist ein „Allrounder", der jede Frage im Vorfeld gelernt hat.

  2. Blitzschnell (Effizienz):
    Während der alte Detektiv 20 Filme pro Patient braucht, braucht EveryQuery nur einen einzigen Blick. Das ist 3.000-mal schneller. Stell dir vor, du müsstest 20 Filme schauen, um zu wissen, ob es morgen regnet, oder du würdest einfach nur auf den Himmel schauen. EveryQuery schaut nur auf den Himmel.

  3. Perfekt für seltene Ereignisse:
    Das ist der wichtigste Punkt. Bei sehr seltenen Krankheiten (z. B. eine seltene Allergie) passiert es dem alten Detektiv oft, dass er in seinen 20 simulierten Szenarien niemals einen Fall sieht. Er sagt dann: „Keine Chance!" – obwohl es doch eine kleine Chance gibt.
    EveryQuery hingegen schaut sich die Zeichen im Patienten an, die auf diese seltene Krankheit hindeuten, egal wie selten sie ist. Er wird nicht durch die Seltenheit der Krankheit verwirrt.

Wo stößt das Modell an seine Grenzen?

Nichts ist perfekt. EveryQuery ist wie ein sehr präziser Frage-Antwort-Maschine, aber sie versteht nur einfache Fragen.

  • Das Problem: Wenn du fragst: „Kommt der Patient wieder, weil er entweder einen Sturz oder eine Lungenentzündung oder einen Herzinfarkt hatte?" (Das nennt man eine „disjunktive" Frage).
  • Die Metapher: EveryQuery kann nur nach einem Wort im Buch suchen. Um die Frage mit „oder" zu beantworten, müsste man ihn 70 Mal hintereinander fragen (einmal für Sturz, einmal für Lungenentzündung, usw.) und dann die Ergebnisse mühsam zusammenrechnen. Das funktioniert nicht gut.
  • Der alte Detektiv hingegen, der die ganze Zukunft nachspielt, sieht automatisch, wenn irgendetwas davon passiert.

Fazit

EveryQuery ist ein großer Schritt vorwärts für die medizinische KI. Es verwandelt die langsame, mühsame Simulation der Zukunft in eine schnelle, direkte Frage-Antwort-Maschine.

  • Bisher: „Lass uns 20 Szenarien durchspielen und hoffen, dass wir etwas finden." (Langsam, ungenau bei seltenen Dingen).
  • Jetzt: „Hier ist die Frage, hier ist der Patient. Hier ist die Antwort." (Schnell, präzise, auch bei seltenen Dingen).

Es ist wie der Unterschied zwischen einem Menschen, der versucht, das Wetter vorherzusagen, indem er 20 verschiedene Wetterkarten zeichnet, und einem modernen Wetter-App, die sofort sagt: „Es wird regnen", weil sie die aktuellen Daten direkt analysiert.

Die Zukunft: Die Forscher wollen die Sprache von EveryQuery bald erweitern, damit er auch komplexe „Entweder-oder"-Fragen verstehen kann, ohne dabei seine Geschwindigkeit zu verlieren.