Implementation of Human-in-the-Loop ChatGPT-based Patient Screening Across Multiple Diverse Clinical Trials

Diese Studie zeigt, dass ein von einem menschlichen Betreuer gesteuerter, auf Large Language Models basierter Prescreening-Workflow die Effizienz und Genauigkeit der Patientenauswahl für diverse klinische Studien bei minimalen Kosten erheblich verbessert.

Dohopolski, M., Esselink, K., Desai, N., Grones, B., Patel, T., Jiang, S., Peterson, E., Navar, A. M.

Veröffentlicht 2026-03-27
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre
⚕️

Dies ist eine KI-generierte Erklärung eines Preprints, das nicht peer-reviewed wurde. Dies ist kein medizinischer Rat. Treffen Sie keine Gesundheitsentscheidungen auf Grundlage dieses Inhalts. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, ein großes Krankenhaus ist wie eine riesige Bibliothek, in der Tausende von Patienten (Bücher) lagern. Gleichzeitig gibt es viele verschiedene, hochspezialisierte Forschungsprojekte (die "Bücher", die gelesen werden sollen), um neue Heilmittel zu finden.

Das Problem: Um herauszufinden, welches "Buch" (Patient) für welches "Forschungsprojekt" (klinische Studie) geeignet ist, mussten bisher menschliche Bibliothekare (Ärzte und Studienkoordinatoren) jedes einzelne Buch von Hand durchblättern. Das dauerte ewig, kostete viel Geld und viele potenzielle Patienten wurden übersehen, weil die Bibliothekare einfach zu müde waren.

Die Lösung: Ein super-intelligenter, lernfähiger Assistent mit einem menschlichen Aufpasser.

Diese Studie beschreibt, wie ein Team am UT Southwestern Medical Center in Dallas eine neue Methode entwickelt hat, um diesen Prozess zu revolutionieren. Hier ist die Erklärung, wie das funktioniert, mit ein paar einfachen Vergleichen:

1. Der "Super-Leser" (Die KI)

Stellen Sie sich die Künstliche Intelligenz (KI) als einen extrem schnellen, aber noch etwas unerfahrenen Assistenten vor. Dieser Assistent kann in Sekundenbruchteilen Millionen von Patientenakten durchsuchen. Er liest nicht nur die offiziellen Tabellen, sondern versteht auch die handschriftlichen Notizen der Ärzte, die wie eine lange, verworrene Geschichte klingen können.

  • Was er tut: Er prüft für jeden Patienten, ob er die Regeln einer Studie erfüllt. Er sagt dann: "Das passt!", "Das passt wahrscheinlich", "Das passt sicher nicht" oder "Ich habe nichts dazu gefunden".
  • Der Clou: Frühere Computerprogramme waren wie starre Roboter, die nur nach exakten Wörtern suchten. Dieser neue Assistent (ein "Large Language Model") versteht den Kontext. Er weiß zum Beispiel, dass "Herzversagen" und "Herzschwäche" dasselbe bedeuten können, auch wenn das Wort anders geschrieben ist.

2. Der "Menschliche Aufpasser" (Human-in-the-Loop)

Die Forscher waren klug genug zu wissen: Ein Computer kann sich irren, besonders bei medizinischen Details. Deshalb haben sie keine "vollautomatische" Lösung gebaut, bei der der Computer allein entscheidet.

Statt dessen haben sie ein Team-System eingeführt:

  • Der Assistent (KI) macht den ersten Durchgang und sortiert die Patienten. Er sagt: "Hey, diese 100 Patienten hier sehen sehr vielversprechend aus, schaut sie euch mal an!"
  • Die menschlichen Koordinatoren (die echten Experten) schauen sich nur diese 100 Patienten an, nicht die 10.000, die der Computer als "nicht passend" aussortiert hat.
  • Wenn der Koordinatoren etwas anders sieht als der Computer, korrigiert er es.

3. Der "Lernende" (Feedback-Schleife)

Das ist der spannendste Teil. Der Assistent lernt aus seinen Fehlern.

  • Beispiel: Stell dir vor, der Assistent dachte immer, ein Patient dürfe nicht an einer Studie teilnehmen, weil er ein bestimmtes Medikament nahm. Ein menschlicher Koordinator korrigiert ihn: "Nein, in diesem speziellen Fall ist das Medikament erlaubt."
  • Die Reaktion: Das System merkt sich diese Korrektur. Beim nächsten Mal, wenn ein ähnlicher Fall auftaucht, weiß der Assistent das schon. Es ist wie ein Schüler, der nach einer falschen Antwort im Test sofort die richtige Regel lernt und sie für den nächsten Test anwendet. Das Team hat so die Regeln des Assistenten im Laufe der Zeit immer wieder verfeinert.

Was war das Ergebnis?

  • Geschwindigkeit und Kosten: Der Assistent hat fast 40.000 Patienten geprüft. Das kostete pro Patient nur etwa 12 Cent (Stromkosten für den Computer). Das ist wie der Preis eines Kaugummis für eine riesige Arbeit, die sonst Stunden gekostet hätte.
  • Genauigkeit: Wenn der Assistent sagte, ein Patient passt, hatte er in 94 % der Fälle recht. Wenn er sagte, ein Patient passt nicht, hatte er in 98 % der Fälle recht.
  • Effizienz: Durch die Vorarbeit der KI konnten sich die menschlichen Experten auf die Patienten konzentrieren, die wirklich eine Chance hatten. Die "Trefferquote" bei der Auswahl der Patienten zu prüfen, stieg enorm an.

Zusammenfassung in einem Satz

Statt dass ein müder Mensch stundenlang nach der Nadel im Heuhaufen sucht, scannt ein schneller, lernender Roboter den ganzen Heuhaufen, zeigt dem Menschen nur die 100 Heufasern, die wie eine Nadel aussehen, und lernt dabei jeden Tag dazu, wie eine Nadel aussieht – und das alles für den Preis eines Kaugummis pro Patient.

Dieser Ansatz zeigt, dass KI nicht den Menschen ersetzen muss, sondern ihm helfen kann, die richtigen Patienten schneller zu finden, damit neue Medikamente schneller entwickelt werden können.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →