Large language model scoring of medical student reflection essays: Accuracy and reproducibility of prompt-model variations

Die Studie zeigt, dass Large Language Models medizinische Reflexionsaufsätze mit nahezu perfekter Genauigkeit und Reproduzierbarkeit bewerten können, wobei feingestimmte Modelle und Prompts mit Beispielen zwar präziser, aber auch kostspieliger sind, während nicht-feingestimmte Modelle für kleinere Volumina eine kosteneffiziente Alternative bieten.

Cook, D. A., Laack, T. A., Pankratz, V. S.

Veröffentlicht 2026-03-24
📖 5 Min. Lesezeit🧠 Tiefgang
⚕️

Dies ist eine KI-generierte Erklärung eines Preprints, das nicht peer-reviewed wurde. Dies ist kein medizinischer Rat. Treffen Sie keine Gesundheitsentscheidungen auf Grundlage dieses Inhalts. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie sind ein Lehrer an einer medizinischen Schule. Ihre Schüler schreiben jeden Monat kurze Aufsätze darüber, was sie in der Klinik erlebt haben und was sie daraus gelernt haben. Diese Aufsätze sind wie Spiegel, die zeigen, wie tief die Schüler nachdenken.

Das Problem: Ein Lehrer kann nicht 100 Aufsätze in einer Stunde korrigieren. Es kostet zu viel Zeit, und wenn man müde ist, wird die Bewertung ungenau.

Hier kommt die Künstliche Intelligenz (KI) ins Spiel. Die Forscher in diesem Papier haben getestet, ob ein Computer (ein sogenanntes „Large Language Model" oder LLM) diese Aufsätze so gut bewerten kann wie ein Mensch. Aber nicht irgendein Computer – sie haben verschiedene „Einstellungen" und „Anweisungen" ausprobiert, um herauszufinden, wie man den Computer am besten „dressiert".

Hier ist die Geschichte ihrer Entdeckungen, erklärt mit einfachen Bildern:

1. Der Test: 51 Aufsätze und 29 verschiedene „Dressier-Tricks"

Die Forscher gaben dem Computer 51 Aufsätze (einige echte, einige von einem anderen Computer erfunden) und sagten ihm: „Bewerte diese!"
Sie probierten 29 verschiedene Methoden aus. Stellen Sie sich das vor wie einen Koch, der 29 verschiedene Rezepte für denselben Kuchen probiert, um herauszufinden, welches am besten schmeckt und am günstigsten ist.

Die Methoden unterschieden sich durch:

  • Welches Modell: Ein „Super-Genie" (teuer), ein „Schneller Helfer" (günstig) oder ein „Altes Modell" (veraltet).
  • Die Anweisung (Prompt): Sollte der Computer wie ein Forscher oder ein Lehrer sprechen?
  • Beispiele: Sollte der Computer erst 3 Beispiele sehen, wie man bewertet, bevor er selbst bewertet? (Wie ein Schüler, der erst eine Musterlösung sieht).
  • Die Anleitung: Sollte der Computer eine detaillierte Checkliste (Rubrik) haben oder nur eine vage Idee?

2. Die Ergebnisse: Was hat funktioniert?

A. Die „Super-Genies" vs. die „Schnellen Helfer"

  • Das Ergebnis: Fast alle modernen Computer-Modelle waren fast perfekt in ihrer Bewertung. Sie lagen so nah an den menschlichen Lehrern, dass man kaum einen Unterschied merkte.
  • Die Analogie: Es ist wie beim Autofahren. Ein teurer Sportwagen (das teuerste Modell) fährt sehr präzise. Aber ein kleiner, günstiger Stadtflitzer (das günstigere Modell) fährt auf dieser Strecke fast genauso gut. Man braucht nicht immer das teuerste Auto, um ans Ziel zu kommen.

B. Die Macht der Beispiele (Few-Shot Learning)

  • Das Ergebnis: Wenn man dem Computer Beispiele gab (z. B. „Hier ist ein Aufsatz mit Note 6, hier einer mit Note 2"), wurde er noch genauer.
  • Die Analogie: Stellen Sie sich vor, Sie wollen jemandem beibringen, wie man einen Korbball wirft.
    • Ohne Beispiele: „Wirf den Ball einfach gut." (Der Computer ist unsicher).
    • Mit Beispielen: „Schau, wie dieser Profi den Ball wirft. Das ist ein guter Wurf. Jetzt wirf du." (Der Computer versteht sofort, was gemeint ist).
    • Aber: Beispiele kosten mehr „Rechenzeit" und damit mehr Geld.

C. Die feine Justierung (Fine-Tuning)

  • Das Ergebnis: Wenn man den Computer vorab mit vielen Beispielen „trainiert" hat (wie einen Schüler, der eine ganze Woche lang nur Korrektur übt), war er am genauesten.
  • Die Analogie: Das ist wie ein Stammpass. Ein normaler Computer ist wie ein Tourist, der die Sprache gerade lernt. Ein „feinjustierter" Computer ist wie ein Einheimischer, der die Sprache perfekt beherrscht.
  • Der Haken: Das Training kostet am Anfang viel Geld. Aber wenn man viele Aufsätze (z. B. 10.000) bewerten muss, wird es pro Aufsatz extrem billig. Für nur 100 Aufsätze lohnt sich das Training aber nicht.

D. Was NICHT funktioniert hat (Überraschungen!)

  • Das Ergebnis: Früher dachte man, man müsse dem Computer sagen: „Denke Schritt für Schritt nach!" (Chain-of-Thought). Bei diesen modernen Modellen hat das nicht geholfen. Es machte die Bewertung sogar langsamer, ohne sie besser zu machen.
  • Die Analogie: Es ist wie wenn Sie einem sehr klugen Freund sagen: „Erkläre mir, wie du denkst, bevor du die Antwort sagst." Der Freund ist schon so klug, dass er die Antwort sofort weiß. Die Erklärung macht ihn nur langsamer und verwirrt ihn vielleicht sogar ein wenig.

3. Die Kosten: Wie viel kostet das?

Die Kosten waren überraschend niedrig.

  • Um 100 Aufsätze zu bewerten, kostet das günstigste Modell nur 4 Cent (in den USA).
  • Das teuerste Modell (mit Training und vielen Beispielen) kostet für 100 Aufsätze etwa 2 Dollar.
  • Vergleich: Ein menschlicher Lehrer würde dafür Stunden brauchen und viel mehr Geld kosten.

4. Fazit für den Alltag

Die Forscher sagen im Grunde:

„Sie müssen sich keine Sorgen machen, ob Sie den perfekten Prompt (die perfekte Anweisung) schreiben. Die modernen Computer sind so schlau, dass sie fast alles richtig machen, solange Sie ihnen eine klare Checkliste geben."

Die einfache Regel:

  1. Für wenige Aufsätze: Nehmen Sie ein günstiges, schnelles Modell ohne viel Vorarbeit. Das ist billig und gut genug.
  2. Für Tausende von Aufsätzen: Trainieren Sie das Modell einmalig (Fine-Tuning). Dann wird es pro Aufsatz extrem billig und sehr genau.
  3. Beispiele sind gut: Wenn Sie etwas Geld sparen können, geben Sie dem Computer ein paar Beispiele. Das hilft ihm, den Stil zu verstehen.

Zusammenfassend: Die KI ist kein Zauberstab, der alles perfekt macht, aber sie ist ein super-effizienter Assistent. Sie entlastet die Lehrer, kostet fast nichts und macht die Arbeit so genau, dass wir ihr vertrauen können – solange wir sie nicht zu kompliziert anweisen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →