Beyond the Prompt in Large Language Models: Comprehension, In-Context Learning, and Chain-of-Thought

Diese Studie liefert theoretische Erklärungen für die Leistungsfähigkeit von Large Language Models, indem sie zeigt, dass In-Context Learning die Aufgabenambiguität reduziert und Chain-of-Thought das Zerlegen komplexer Probleme in bereits gelernte Teilsequenzen ermöglicht, was durch die Analyse der Token-Übergangswahrscheinlichkeiten und statistischer Fehlergrenzen untermauert wird.

Yuling Jiao, Yanming Lai, Huazhen Lin, Wensen Ma, Houduo Qi, Defeng Sun

Veröffentlicht 2026-03-12
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache und kreative Erklärung der wissenschaftlichen Arbeit „Beyond the Prompt in Large Language Models" auf Deutsch.

Stellen Sie sich vor, ein Großes Sprachmodell (LLM) ist wie ein genialer, aber etwas verwirrter Koch, der in einer riesigen Küche arbeitet. Dieser Koch hat Millionen von Rezepten gelernt (das ist das „Pretraining"), aber er kennt die eigentlichen Regeln der Küche nicht wirklich. Er weiß nur: „Wenn ich diesen Satz sehe, kommt meistens dieses nächste Wort."

Die Forscher in diesem Papier wollen herausfinden: Wie schafft es dieser Koch, komplexe Aufgaben zu lösen, wenn wir ihm nur einen kurzen Hinweis geben, ohne ihn neu zu trainieren?

Hier sind die drei großen Geheimnisse, die sie entschlüsselt haben:

1. Das Rätsel der „Versteckten Absicht" (Prompt Comprehension)

Das Problem: Wenn Sie dem Koch nur sagen: „Albert Einstein war...", kann er raten. War er ein Deutscher? Ein Physiker? Ein kluger Mann? Ohne Kontext ist der Koch verwirrt. Er weiß nicht, welches Rezept Sie eigentlich wollen.

Die Lösung: Der Koch ist extrem gut darin, aus dem, was Sie sagen, die wahre Absicht (die „latente Aufgabe") zu erraten. Es ist, als würde er aus Ihrem Tonfall und den wenigen Worten schließen: „Aha, der Gast will wissen, was Einstein beruflich gemacht hat!"
Die Forscher zeigen mathematisch, dass der Koch durch sein Training gelernt hat, diese Absichten fast perfekt zu erraten, solange Sie ihm genug Hinweise geben.

2. Der Trick mit den Beispielen (In-Context Learning)

Das Problem: Manchmal ist die Absicht immer noch zu vage. Der Koch denkt: „Vielleicht will er eine Biografie, vielleicht ein Gedicht?"

Die Lösung: Hier kommt das In-Context Learning (ICL) ins Spiel. Das ist wie ein Koch, dem Sie vor der eigentlichen Bestellung drei kleine Probierportionen geben:

  • Beispiel 1: „Marie Curie war Chemikerin."
  • Beispiel 2: „Isaac Newton war Physiker."
  • Beispiel 3: „Albert Einstein war..."

Durch diese Beispiele sagt der Koch: „Oh, ich verstehe! Wir spielen das Spiel 'Beruf erraten'."
Die Theorie dahinter: Die Forscher erklären, dass jedes Beispiel wie ein Trichter wirkt. Am Anfang ist der Koch in einem riesigen Raum voller Möglichkeiten (Verwirrung). Jedes Beispiel schließt einen Teil des Raumes aus und drückt den Koch immer stärker in die richtige Ecke. Je mehr Beispiele Sie geben, desto weniger verwirrt ist er, bis er genau weiß, was er tun muss.

3. Die Magie des „Gedankengangs" (Chain-of-Thought)

Das Problem: Bei einfachen Aufgaben reicht das Trichter-Beispiel. Aber bei komplexen Mathe-Aufgaben oder Logikrätseln scheitert der Koch oft.
Beispiel: „Roger hat 5 Tennisbälle. Er kauft 2 Dosen mit je 3 Bällen. Wie viele hat er?"
Ohne Hilfe antwortet der Koch oft falsch (z. B. 11), weil er nur das Endergebnis erraten will, ohne den Weg zu gehen.

Die Lösung: Chain-of-Thought (CoT). Hier bitten Sie den Koch nicht nur um das Ergebnis, sondern sagen: „Erkläre mir deinen Gedankengang Schritt für Schritt."

  • Schritt 1: „Zuerst rechne ich die neuen Bälle aus: 2 Dosen mal 3 Bälle = 6."
  • Schritt 2: „Dann addiere ich die alten: 5 plus 6."
  • Schritt 3: „Das Ergebnis ist 11."

Warum funktioniert das? (Das ist der Clou der Arbeit):
Die Forscher sagen, dass komplexe Probleme eigentlich aus vielen kleinen, einfachen Teilen bestehen, die der Koch schon kennt (wie Multiplizieren oder Addieren).

  • Bei einer normalen Frage muss der Koch das ganze riesige Puzzle auf einmal lösen. Das ist zu schwer.
  • Bei CoT zerlegen Sie das Puzzle für ihn. Sie zeigen ihm: „Mach erst diesen kleinen Schritt, dann diesen, dann jenen."
  • Der Koch muss nicht neu lernen, wie man multipliziert. Er nutzt nur seine alten Fähigkeiten (die er schon im Training gelernt hat) und setzt sie in einer neuen Reihenfolge zusammen.

Die Metapher:
Stellen Sie sich vor, Sie müssen einen Berg besteigen.

  • Ohne CoT: Sie schauen auf den Gipfel und versuchen, ihn in einem einzigen riesigen Sprung zu erreichen. Sie fallen.
  • Mit CoT: Sie bauen eine Treppe. Jeder Schritt ist einfach (ein bekanntes Brett). Indem Sie dem Koch die Treppe zeigen (die Beispiele mit den Zwischenschritten), kann er den Berg besteigen, indem er einfach nur die bekannten Treppenstufen nacheinander nimmt.

Zusammenfassung der Entdeckungen

Die Forscher haben bewiesen, dass diese Methoden nicht nur „Zufall" sind, sondern auf festen mathematischen Prinzipien beruhen:

  1. Verwirrung reduzieren: Je mehr Beispiele Sie geben, desto sicherer wird der Koch, was Sie wollen (die Unsicherheit sinkt exponentiell).
  2. Komplexität knacken: Chain-of-Thought ist der Schlüssel, um schwierige Aufgaben in kleine, bekannte Häppchen zu zerlegen. Der Koch muss nicht „neue Magie" lernen; er nutzt nur seine alten Tricks in einer neuen, klugen Reihenfolge.

Fazit:
Dieses Papier erklärt, warum KI so plötzlich „klüger" wirkt, wenn wir ihr die richtigen Hinweise geben. Es ist nicht, als würde die KI plötzlich denken lernen. Es ist eher so, als würden wir ihr eine Landkarte geben, damit sie ihren eigenen, bereits vorhandenen Wissensschatz besser nutzen kann, um komplexe Probleme zu lösen.