The Stepwise Informativeness Assumption: Why are Entropy Dynamics and Reasoning Correlated in LLMs?

Diese Arbeit führt die Annahme der schrittweisen Informativität ein, um zu erklären, warum die Entropiedynamik in großen Sprachmodellen mit der Korrektheit von Schlussfolgerungen korreliert, und zeigt sowohl theoretisch als auch empirisch, dass dieses Phänomen durch das Akkumulieren von antwortrelevanten Informationen während der Generierung entsteht.

Mar Gonzàlez I Català, Haitz Sáez de Ocáriz Borde, George D. Montañez, Pietro Liò

Veröffentlicht 2026-04-09
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, ein großes Sprachmodell (wie ein sehr kluger KI-Assistent) ist wie ein Detektiv, der einen Fall lösen muss. Der Fall ist eine Frage (z. B. eine Matheaufgabe), und die Lösung ist die Antwort.

Wenn dieser Detektiv nachdenkt, spricht er laut mit sich selbst. Er schreibt einen Gedankengang auf, Schritt für Schritt, bevor er die finale Lösung nennt. Das nennt man „Chain of Thought" (Gedankenkette).

Die Forscher in diesem Papier haben ein faszinierendes Phänomen beobachtet: Wenn der Detektiv auf dem richtigen Weg ist, wird er im Laufe seiner Überlegungen immer „sicherer" und weniger verwirrt.

Hier ist die einfache Erklärung der wichtigsten Punkte, übersetzt in eine Alltagssprache:

1. Das Rätsel: Warum zeigt Unsicherheit den Weg?

In der Welt der KI gibt es eine Zahl, die Entropie heißt. Stell dir das wie ein Messgerät für Verwirrung vor.

  • Hohe Entropie: Der KI-Assistent ist unsicher, wackelt hin und her und denkt: „Vielleicht ist es A, vielleicht B, vielleicht C?"
  • Niedrige Entropie: Der Assistent ist sich sicher: „Es ist definitiv A!"

Bisher war das ein Rätsel: Warum korreliert das innere Zittern des Modells (seine Verwirrung) so stark damit, ob die externe Antwort richtig ist? Warum wird ein Modell, das sich sicherer fühlt, auch öfter richtig?

2. Die Lösung: Der „Schritt-für-Schritt-Informationstransfer"

Die Autoren nennen ihre neue Idee die „Schritt-für-Schritt-Informativitäts-Annahme" (Stepwise Informativeness Assumption).

Stell dir vor, der Detektiv hat eine Landkarte, auf der der Schatz (die richtige Antwort) liegt.

  • Der falsche Weg: Wenn der Detektiv falsch liegt, sammelt er zwar Informationen, aber sie führen ihn in eine Sackgasse. Er wird sich zwar innerlich sicherer, aber er ist sicher auf dem falschen Weg.
  • Der richtige Weg: Wenn der Detektiv richtig liegt, sammelt jeder neue Satz in seinem Gedankengang wertvolle Hinweise, die den Bereich der möglichen Antworten verkleinern.

Die Annahme besagt: Gute Denkprozesse sind wie ein Trichter. Am Anfang ist der Trichter weit (viele Möglichkeiten). Mit jedem richtigen Satz, den der Detektiv sagt, wird der Trichter enger, bis am Ende nur noch die eine richtige Antwort übrig bleibt.

3. Warum passiert das? (Das Training)

Warum lernen diese KIs diesen „Trichter-Effekt"?

  • Beim Lernen (Training): Die KIs wurden mit Millionen von Beispielen trainiert, bei denen Menschen Probleme gelöst haben. Diese menschlichen Lösungen haben eine Eigenschaft: Sie bauen logisch aufeinander auf. Jeder Schritt macht die Lösung klarer.
  • Der Lerneffekt: Die KI lernt durch Bestrafung und Belohnung (wie ein Hundetraining), dass sie nur dann „gut" ist, wenn ihre Zwischenschritte sie tatsächlich zur richtigen Antwort führen. Sie lernt also unbewusst: „Um die richtige Antwort zu finden, muss ich in jedem Schritt Informationen sammeln, die mich der Lösung näherbringen."

4. Die Signale: Woran erkennt man einen guten Denkprozess?

Die Forscher haben herausgefunden, dass man an der „Verwirrungs-Kurve" (Entropie) sehen kann, ob die KI gerade gut oder schlecht denkt:

  • Der „Frühe Riegel" (Early Lock-in): Bei einer richtigen Lösung fällt die Verwirrung schnell ab. Der Detektiv findet schnell den richtigen Pfad und schließt andere Möglichkeiten aus.
  • Das „Plateau": Am Ende des Denkens sollte die Verwirrung bei Null sein (oder sehr niedrig), weil die Antwort gefunden ist.
  • Der „Rückprall": Wenn die KI falsch liegt, fällt die Verwirrung vielleicht kurz, steigt dann aber wieder an oder bleibt auf einem hohen Niveau, weil sie in einer Sackgasse feststeckt.

5. Ein einfaches Experiment

Stell dir vor, du würdest die Sätze in einem guten Gedankengang durcheinanderwürfeln (wie ein Stapel Karten, den du mischst).

  • Das Ergebnis: Die Logik ist weg. Die KI kann die Antwort nicht mehr finden, und das „Verwirrungs-Messgerät" zeigt kein klares Muster mehr.
  • Das beweist: Es kommt nicht auf die Anzahl der Wörter an, sondern darauf, dass sie in der richtigen Reihenfolge Informationen sammeln.

Zusammenfassung

Dieses Papier erklärt, warum wir auf das „Zittern" einer KI hören können, um zu wissen, ob sie recht hat.
Es ist nicht Magie. Es ist so, als würde ein guter Schüler beim Lösen einer Aufgabe immer klarer werden, je mehr er schreibt. Ein schlechter Schüler hingegen wird vielleicht immer lauter und selbstbewusster, aber er bleibt verwirrt.

Die KI lernt durch Training, wie der gute Schüler: Sie baut ihren Gedankengang so auf, dass jeder Schritt sie der Wahrheit näherbringt. Und genau das macht ihre innere Unsicherheit zu einem verlässlichen Kompass für die Richtigkeit der Antwort.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →