Eliciting Numerical Predictive Distributions of LLMs Without Autoregression

Diese Arbeit zeigt, dass Regression-Proben, die auf internen Repräsentationen von Large Language Models trainiert sind, statistische Kennzahlen und Unsicherheiten numerischer Vorhersagen effizient und ohne rechenintensive autoregressive Generierung extrahieren können.

Julianna Piskorz, Katarzyna Kobalczyk, Mihaela van der Schaar

Veröffentlicht 2026-03-04
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das große Rätsel: Wie denken LLMs über Zahlen?

Stell dir vor, ein Large Language Model (LLM) ist wie ein extrem kluger, aber sehr pedantischer Koch. Wenn du ihn fragst: „Wie wird das Wetter morgen?", denkt er sich die Antwort nicht einfach aus. Er „kocht" sie Wort für Wort (oder besser: Token für Token) zusammen.

Das Problem bei Zahlen ist: Um eine Zahl wie „123,45" zu sagen, muss der Koch erst das „1", dann das „2", dann das „3" usw. sagen. Das dauert lange. Wenn du wissen willst, wie unsicher der Koch ist (z. B. „Ist es eher 120 oder 125?"), musst du ihn oft hintereinander fragen und die Antworten mitteln. Das ist wie wenn du den Koch 100 Mal fragst: „Wie sieht das Wetter aus?", nur um eine grobe Schätzung zu bekommen. Das ist teuer und langsam.

Die Entdeckung: Der Koch hat den Plan schon im Kopf

Die Forscher aus Cambridge haben etwas Spannendes entdeckt: Der Koch hat die ganze Antwort schon im Kopf, bevor er auch nur das erste Wort sagt.

Stell dir vor, der Koch steht in der Küche. Bevor er anfängt zu kochen, hat er den fertigen Teller schon in seinem Geist gesehen. Er weiß genau, ob das Essen groß oder klein sein wird (die „Größenordnung") und wie es schmeckt (der genaue Wert).

Normalerweise zwingen wir den Koch aber, den Teller erst Stück für Stück auf den Tisch zu legen (das ist die autoregressive Generierung). Die Forscher sagen: „Warte mal! Wir müssen nicht warten, bis er den Teller auf den Tisch stellt. Wir können einfach in seinen Kopf schauen (in die inneren Repräsentationen des Modells) und die Antwort direkt ablesen."

Die Methode: Ein spezieller „Zahlen-Dolmetscher"

Wie lesen sie diesen Gedanken? Sie haben einen kleinen, schlauen Boten gebaut – nennen wir ihn den „Zahlen-Dolmetscher".

  1. Der Blick in den Kopf: Der Dolmetscher schaut sich an, was im Gehirn des LLMs passiert, bevor es eine Zahl ausspricht.

  2. Die zwei-Schritte-Strategie: Zahlen sind tricky. Eine Zahl wie „0,0001" ist ganz anders als „1.000.000". Der Dolmetscher macht das in zwei Schritten:

    • Schritt 1 (Der Schätzer): Er fragt: „Ist die Zahl klein, mittel oder riesig?" (Das nennt man die Größenordnung). Das ist wie zu erraten, ob ein Elefant oder eine Maus im Raum ist.
    • Schritt 2 (Der Feinschmecker): Sobald er weiß, ob es ein Elefant ist, schaut er sich genau an, wie groß genau dieser Elefant ist.

    Durch diese Aufteilung kann der Dolmetscher Zahlen aller Größenordnungen verstehen, ohne vom Computer zu verrückt werden.

Was haben sie herausgefunden?

Die Ergebnisse sind fast schon magisch:

  • Die Antwort ist da: Der Dolmetscher kann die genaue Zahl vorhersagen, die der Koch eigentlich aussprechen wollte, und das sofort, ohne dass der Koch auch nur ein einziges Wort gesagt hat.
  • Die Unsicherheit: Der Dolmetscher kann sogar sagen, wie sicher sich der Koch ist. Wenn der Koch unsicher ist (vielleicht schwankt er zwischen 10 und 20), sieht der Dolmetscher das in den Gehirnwellen des LLMs. Er kann dir sagen: „Der Koch ist sich zu 95 % sicher, dass die Zahl zwischen 12 und 18 liegt."
  • Geschwindigkeit: Das ist der größte Clou. Anstatt den Koch 100 Mal zu fragen, um eine Unsicherheit zu berechnen, schaut der Dolmetscher nur einmal kurz in den Kopf des Kochs. Das ist riesig schneller und spart enorm viel Rechenleistung.

Warum ist das wichtig?

Stell dir vor, du nutzt eine KI, um den Aktienkurs vorherzusagen oder das Wetter zu berechnen.

  • Aktuell: Du musst warten, bis die KI langsam ihre Zahl heruntersagt, und sie dann oft wiederholen, um zu wissen, wie sicher sie ist. Das kostet Zeit und Geld.
  • Mit dieser neuen Methode: Du bekommst die Zahl und die Sicherheitsschätzung sofort und kostenlos (fast), indem du einfach den „Gedanken" der KI abhörst, bevor sie spricht.

Fazit

Die Forscher haben bewiesen, dass KI-Modelle bei Zahlenaufgaben viel mehr wissen, als sie uns sagen. Die „Rechnung" findet schon im Hintergrund statt. Wir müssen nur lernen, wie man diese Gedanken direkt abliest, ohne den ganzen langen Prozess des „Sprechens" abwarten zu müssen.

Das ist wie wenn du einem Freund eine Zahl nennst, und er sagt: „Ich habe die Antwort schon im Kopf, bevor du sie ausgesprochen hast." Und das Beste: Er hat recht!

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →