Hallucination, Monofacts, and Miscalibration: An Empirical Investigation

Diese Studie untersucht empirisch den Zusammenhang zwischen Halluzinationen, Monofakten und Fehlkalibrierung in Sprachmodellen und zeigt, dass eine gezielte, selektive Gewichtung von nur 5 % der Trainingsdaten die Halluzinationsrate um bis zu 40 % senken kann, ohne die Genauigkeit zu beeinträchtigen, was universelle Deduplizierungsrichtlinien in Frage stellt.

Miranda Muqing Miao, Michael Kearns

Veröffentlicht 2026-03-04
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen extrem gut gebildeten, aber etwas verwirrten Bibliothekar. Dieser Bibliothekar kennt Millionen von Büchern, aber wenn er nach einer sehr seltenen Information fragt, die er nur einmal in seinem Leben gesehen hat, beginnt er zu raten. Und das ist das Problem, das in diesem Papier untersucht wird: Halluzinationen in künstlicher Intelligenz (KI).

Die KI erfindet Fakten, die plausibel klingen, aber falsch sind (z. B. „John Smith wurde 1982 in Seattle geboren", obwohl das nicht stimmt).

Hier ist die einfache Erklärung der Forschung, verpackt in eine Geschichte:

1. Das Problem: Der Bibliothekar und die „Einmal-Gelesenen"

Stellen Sie sich vor, Sie haben eine riesige Bibliothek (die Trainingsdaten der KI).

  • Häufige Fakten: Bücher über „Harry Potter" oder „Berlin" stehen in 100 Regalen. Der Bibliothekar kennt sie auswendig.
  • Einmalige Fakten (Monofacts): Es gibt ein einziges, vergilbtes Buch über einen ganz bestimmten, unbekannten Dorfbewohner. Der Bibliothekar hat es nur ein einziges Mal gesehen.

Die Forscher haben herausgefunden: Je mehr dieser „Einmal-Bücher" in der Bibliothek sind, desto eher lügt der Bibliothekar. Wenn er nach dem Dorfbewohner gefragt wird, weiß er es nicht genau, aber er traut sich, eine plausible Geschichte zu erfinden, weil er sich nicht sicher ist.

2. Die Theorie: Warum „perfekte Ehrlichkeit" zum Lügen führt

Es gibt eine mathematische Theorie (von Kalai und Vempala), die besagt: Ein KI-Modell, das zu ehrlich ist (in der Mathematik „kalibriert"), muss lügen, wenn es unsichere Fakten hat.

  • Die Logik: Wenn die KI sagt: „Ich bin zu 50 % sicher", und sie hat das Ding nur einmal gesehen, muss sie manchmal raten. Und beim Raten entstehen die Lügen.
  • Die Lösung der Forscher: Was, wenn wir den Bibliothekar absichtlich etwas weniger ehrlich machen? Was, wenn wir ihn dazu bringen, bei den Dingen, die er kennt, übermütig zu werden?

3. Der Trick: Der „Stempel" (Selektives Aufgewichten)

Hier kommt der geniale, aber einfache Trick des Papiers ins Spiel: Selektives Aufgewichten.

Stellen Sie sich vor, Sie nehmen eine kleine Auswahl von Büchern aus der Bibliothek (nur etwa 5 % davon) und kleben einen riesigen, leuchtenden Stempel darauf: „DAS IST WAHR! LIES DAS 10-MAL!"

  • Sie zwingen den Bibliothekar, diese wenigen Bücher extrem oft zu lesen.
  • Dadurch wird er bei diesen Fakten übermütig (er ist sich zu 100 % sicher, fast schon arrogant).
  • Der Clou: Weil er bei diesen Fakten so sicher ist, drängen sie sich in den Vordergrund. Die KI wird weniger dazu neigen, bei den unsicheren Dingen zu raten, weil sie sich auf das konzentriert, was sie „übermäßig gut" gelernt hat.

Das Ergebnis: Die KI lügt bis zu 40 % weniger, obwohl sie eigentlich „schlechter" trainiert wurde (weil sie nicht mehr perfekt ehrlich ist, sondern etwas übermütig).

4. Die Analogie: Der übermütige Schüler

Stellen Sie sich einen Schüler vor, der für eine Prüfung lernt:

  • Normaler Weg: Er liest jedes Thema einmal. Bei den Themen, die er nur einmal gesehen hat, zögert er und rät vielleicht falsch.
  • Der neue Weg: Er nimmt 5 % der Themen und lernt sie so oft, bis er sie im Schlaf kann. Er wird bei diesen Themen extrem selbstbewusst.
  • Das Paradoxon: Indem er bei diesen 5 % zu sicher wird, lernt er, bei den anderen 95 % (den unsicheren Themen) vorsichtiger zu sein oder sich auf das zu verlassen, was er wirklich kennt. Er lügt weniger, weil er nicht mehr versucht, bei allem „mitzuhalten".

5. Was bedeutet das für die Zukunft?

Bisher war die Regel in der KI-Welt: „Entferne alle doppelten Texte!" (Deduplizierung). Man dachte, je einzigartiger die Daten, desto besser.

Dieses Papier sagt: „Stopp! Manchmal ist das Wiederholen von Daten gut!"
Wenn wir strategisch kleine Teile der Daten wiederholen, können wir die KI dazu bringen, weniger zu halluzinieren, ohne dass sie dümmer wird. Es ist ein Balanceakt zwischen „genau wissen" und „nicht zu viel raten".

Zusammenfassung in einem Satz

Die Forscher haben entdeckt, dass KI-Modelle weniger lügen, wenn wir sie absichtlich dazu bringen, bei ein paar wenigen Fakten übermütig sicher zu sein, statt sie zu zwingen, bei allen Fakten perfekt ehrlich zu sein. Es ist wie ein Thermostat: Ein wenig „Falschheit" (Unsicherheit) in der Einstellung führt zu mehr „Wahrheit" im Ergebnis.