To Predict or Not to Predict? Towards reliable uncertainty estimation in the presence of noise

Die Studie zeigt, dass Monte-Carlo-Dropout-Methoden im Vergleich zu Softmax-basierten Ansätzen eine robustere Unsicherheitsschätzung für multilinguale Textklassifizierung unter verrauschten Bedingungen bieten und durch das Abstimmen unsicherer Vorhersagen die Gesamtleistung signifikant verbessern.

Nouran Khallaf, Serge Sharoff

Veröffentlicht 2026-03-10
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Titel: Sagen oder Schweigen? Wie KI lernt, wann sie besser die Klappe hält

Stellen Sie sich vor, Sie haben einen sehr klugen, aber manchmal etwas übermütigen Freund, der alles über die Welt weiß. Er ist ein Experte für Texte und kann mühelos sagen, ob ein Satz einfach oder kompliziert ist. Das Problem: Manchmal ist er sich nicht sicher, tut aber so, als wüsste er es genau. Er gibt eine Antwort, auch wenn er eigentlich nur rät.

Genau dieses Problem untersuchen die Forscher Nouran Khallaf und Serge Sharoff von der Universität Leeds in ihrer Studie. Sie wollen herausfinden, wie wir einer KI beibringen können, nicht nur zu antworten, sondern auch zu wissen: „Moment, hier bin ich mir nicht sicher. Ich sollte lieber schweigen."

Hier ist die Geschichte ihrer Forschung, einfach erklärt:

1. Das Problem: Der „Übermütige" KI-Assistent

In der echten Welt ist KI oft mit verrauschten Daten konfrontiert (fehlerhafte Texte, fremde Dialekte oder Themen, die sie nie gelernt hat). Wenn die KI dann auf eine Frage trifft, die sie nicht kennt, neigt sie dazu, eine falsche Antwort mit großer Selbstsicherheit zu geben. Das ist wie ein Tourist, der in einem fremden Land nach dem Weg fragt, eine falsche Richtung nimmt, aber mit dem Daumen hoch sagt: „Ich bin mir zu 100 % sicher!"

Die Forscher wollten testen: Wie können wir der KI beibringen, ihre Unsicherheit zu messen? Wenn sie unsicher ist, soll sie lieber nichts sagen („abstain"), als etwas Falsches zu behaupten.

2. Der Test: Ein Sprach-Quiz für die KI

Um das zu testen, haben sie die KI mit einem schwierigen Quiz konfrontiert:

  • Die Aufgabe: Unterscheiden zwischen einfachen und komplexen Sätzen.
  • Die Herausforderung: Sie haben die KI auf sieben verschiedenen Sprachen (wie Englisch, Hindi, Arabisch) trainiert und dann in völlig neuen Umgebungen getestet (z. B. Kinder-Wikipedia-Artikel oder spanische Nachrichten).
  • Das Ziel: Nicht nur zu sehen, wie oft die KI richtig liegt, sondern ob sie weiß, wann sie falsch liegt.

3. Die Werkzeuge: Wie misst man Unsicherheit?

Die Forscher haben neun verschiedene Methoden getestet, um die Unsicherheit der KI zu messen. Man kann sich diese wie verschiedene Instrumente vorstellen, mit denen man die „Zittern" der KI abhört:

  • Der „Softmax"-Ansatz (SR): Das ist der Standard. Die KI schaut auf ihre eigene Wahrscheinlichkeitsrechnung. „Ich bin zu 90 % sicher." Das Problem: Oft lügt sie dabei. Sie ist zu selbstvertrauensvoll, auch wenn sie falsch liegt.
  • Der „Monte-Carlo"-Ansatz (Dropout): Das ist wie ein Experiment. Man lässt die KI denselben Text 20-mal hintereinander lesen, wobei sie bei jedem Durchgang ein bisschen „betrunken" ist (man schaltet zufällig Teile ihres Gehirns aus).
    • Die Analogie: Wenn die KI bei allen 20 Versuchen das Gleiche sagt, ist sie sicher. Wenn sie beim ersten Mal „Apfel" sagt, beim zweiten „Birne" und beim dritten „Banane", dann ist sie verwirrt. Diese Methode (Monte-Carlo Dropout) hat sich als der zuverlässigste Kompass erwiesen. Sie zittert nicht so leicht, wenn die KI in fremden Umgebungen ist.
  • Die „Ausreißer-Detektoren" (LOF, ISOF): Diese Methoden schauen sich an, ob der Text wie die Trainingsdaten aussieht. Ist der Text zu anders? Dann ist es ein „Außenseiter". Diese Methoden funktionieren gut, sind aber manchmal sehr launisch und unbeständig.

4. Die große Entdeckung: Weniger ist mehr!

Das Spannendste an der Studie ist das Ergebnis des „Schweigens".

Die Forscher haben einen einfachen Trick angewendet: Sie haben der KI befohlen, bei den 10 % der Fälle, bei denen sie am unsichersten war, einfach nichts zu sagen.

  • Das Ergebnis: Das war ein Game-Changer!
  • Die Analogie: Stellen Sie sich vor, Sie haben einen Schatzsucher, der 100 Karten findet, aber 20 davon sind Fälschungen. Wenn Sie ihm sagen: „Verwirf die 10 Karten, bei denen du am meisten gezögert hast", dann bleiben nur noch die echten Schätze übrig.
  • In der Studie stieg die Genauigkeit (der F1-Score) dadurch von 0,81 auf 0,85. Das klingt nach wenig, ist aber in der KI-Welt riesig. Die KI wurde durch das bewusste Nicht-Sagen viel klüger.

5. Die Lektion: Nicht immer antworten ist besser

Die Studie zeigt uns eine wichtige Lektion für die Zukunft der KI:

  1. In vertrauter Umgebung (z. B. Englisch, bekannte Texte): Einfache Methoden reichen oft aus. Die KI ist hier wie ein Einheimischer, der sich sicher fühlt.
  2. In fremder Umgebung (z. B. neue Sprachen, neue Themen): Hier versagen die einfachen Methoden. Die KI wird übermütig und falsch. Hier braucht man die „Monte-Carlo"-Methoden, die die KI dazu zwingen, sich selbst zu hinterfragen.
  3. Der beste Weg: Die KI sollte nicht versuchen, jede Frage zu beantworten. Sie sollte lernen, zu sagen: „Ich weiß es nicht." Wenn wir diese unsicheren Fälle herausfiltern, werden die verbleibenden Antworten viel zuverlässiger.

Fazit

Die Studie „To Predict or Not to Predict?" (Sagen oder nicht sagen?) kommt zu dem Schluss: Vertrauen ist gut, aber Kontrolle ist besser.

Eine zuverlässige KI ist nicht diejenige, die immer eine Antwort gibt, sondern diejenige, die weiß, wann sie schweigen sollte. Indem wir Methoden nutzen, die die Unsicherheit der KI genau messen (wie das wiederholte, leicht verrückte Lesen von Texten), können wir Systeme bauen, die in der chaotischen, verrauschten echten Welt viel sicherer und vertrauenswürdiger sind.

Kurz gesagt: Ein kluger KI-Assistent ist nicht der, der alles weiß, sondern der, der weiß, wann er lieber den Mund hält.