Value Under Ignorance in Universal Artificial Intelligence

Dieses Paper erweitert das AIXI-Modell der universellen künstlichen Intelligenz, indem es den Tod als Ausdruck totaler Ignoranz interpretiert und die Berechnung erwarteter Nutzen durch Choquet-Integrale aus der Theorie der ungenauen Wahrscheinlichkeiten ermöglicht, wobei sich zeigt, dass die allgemeinste Form dieser Nutzen unter der Todesinterpretation nicht als solche Integrale darstellbar ist.

Cole Wyeth, Marcus Hutter

Veröffentlicht 2026-03-13
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Die Geschichte vom allwissenden Roboter und dem „Tod"

Stell dir einen superintelligenten Roboter vor, nennen wir ihn AIXI. Dieser Roboter lebt in einer Welt, die er nicht kennt. Er kann nur durch Ausprobieren lernen: Er macht etwas (eine Aktion), und die Welt reagiert darauf (eine Wahrnehmung).

Das Ziel von AIXI ist es, so viele Punkte wie möglich zu sammeln. Normalerweise gibt es dafür einen klaren Belohnungsmechanismus: „Wenn du das machst, bekommst du 10 Punkte."

Aber was passiert, wenn die Welt plötzlich aufhört? Wenn der Roboter versehentlich einen Knopf drückt, der ihn „tötet" oder wenn die Simulation einfach abbricht?

In der alten Theorie gab es ein großes Problem: Der Roboter hatte eine Art „Glaubenssystem" (eine Wahrscheinlichkeitsverteilung) über die Welt. Manche seiner Theorien sagten voraus, dass die Welt weitergeht, andere sagten, sie endet nach 5 Schritten.

  • Das alte Problem: Wenn eine Theorie sagt „Die Welt endet", fehlt im mathematischen Modell die Wahrscheinlichkeit für die Zeit danach. Die Summe der Wahrscheinlichkeiten ist nicht 100 %, sondern vielleicht nur 90 %. Die fehlenden 10 % wurden als „Tod" interpretiert.
  • Die Konsequenz: Der Roboter war extrem vorsichtig. Er dachte: „Wenn ich diesen Weg gehe, habe ich 10 % Chance, dass ich einfach aufhöre zu existieren und 0 Punkte bekomme." Das führte zu sehr pessimistischen Entscheidungen.

Die neue Idee: Nicht „Tod", sondern „Unwissenheit"

Die Autoren dieses Papiers sagen: „Moment mal! Vielleicht ist das kein Tod. Vielleicht ist es einfach nur Unwissenheit."

Stell dir vor, du bist in einem Labyrinth. Du hast eine Karte, aber sie ist unvollständig. An manchen Stellen steht: „Hier geht es weiter", aber an anderen Stellen steht einfach nichts.

  • Die alte Sichtweise: „Da nichts steht, muss ich hier sterben."
  • Die neue Sichtweise: „Da nichts steht, weiß ich einfach nicht, was dahinter ist. Ich habe keine Ahnung."

Das ist der Kern des Papers: Sie behandeln diese fehlenden Informationen nicht als sicheren Tod, sondern als vollständige Unwissenheit.

Der mathematische Zaubertrick: Der Choquet-Integral

Um mit dieser „Unwissenheit" umzugehen, nutzen die Autoren ein mathematisches Werkzeug, das wie ein Sicherheitsgurt für pessimistische Denker funktioniert.

Stell dir vor, du musst eine Entscheidung treffen, aber du weißt nicht genau, wie die Zukunft aussieht.

  1. Die alte Methode (Erwartungswert): Du nimmst den Durchschnitt aller möglichen Szenarien.
  2. Die neue Methode (Choquet-Integral): Du schaust dir das schlechteste plausible Szenario an, das noch in deinen „Unwissens-Bereich" fällt, und entscheidest dich danach.

Das ist wie beim Wetter:

  • Normal: „Es gibt 50 % Regen und 50 % Sonne. Ich nehme eine Jacke mit."
  • Choquet-Integral (bei Unwissenheit): „Ich weiß nicht, ob es regnet oder nicht, und ich habe keine Ahnung, wie die Wahrscheinlichkeiten verteilt sind. Also gehe ich davon aus, dass es schlimmstenfalls stürmt und ich ertrinke. Ich nehme also einen Anzug und einen Fallschirm mit."

Das klingt extrem vorsichtig, aber es hat einen Vorteil: Es macht die Mathematik viel sauberer und berechenbarer.

Was bringt das für die Zukunft?

Die Autoren zeigen zwei wichtige Dinge:

  1. Flexibilität: AIXI muss nicht nur Punkte sammeln. Man kann ihm jeden beliebigen Wunsch geben (z. B. „Sei kreativ" oder „Hilf anderen"), solange dieser Wunsch mathematisch definiert ist.
  2. Bessere Berechenbarkeit: Wenn man die fehlende Wahrscheinlichkeit als „Tod" interpretiert, wird die Mathematik des Roboters sehr kompliziert und schwer zu berechnen. Wenn man sie aber als „Unwissenheit" (mit dem Choquet-Integral) behandelt, wird die Berechnung etwas einfacher und übersichtlicher.

Zusammenfassung in einem Satz

Die Autoren sagen: „Wenn ein KI-System nicht weiß, was als Nächstes passiert, sollten wir nicht annehmen, dass es stirbt, sondern dass es einfach nur raten muss. Wenn wir das so behandeln, können wir KI-Systeme bauen, die nicht nur nach Punkten jagen, sondern nach komplexeren Zielen streben, ohne dabei in mathematischen Sackgassen stecken zu bleiben."

Die Moral der Geschichte:
Manchmal ist es besser, zuzugeben, dass man nichts weiß (Unwissenheit), als anzunehmen, dass das Schlimmste passiert (Tod). Das macht den Roboter nicht nur schlauer, sondern auch mathematisch „gesünder".

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →