Can AI Agents Agree?

Die Studie zeigt, dass LLM-basierte Agenten in Byzantinischen Konsensspielen selbst unter idealen Bedingungen keine zuverlässige Einigung erzielen und ihre Leistung mit zunehmender Gruppengröße sowie durch das Vorhandensein fehlerhafter Agenten weiter abnimmt, was die Zuverlässigkeit ihrer koordinierten Zusammenarbeit in Frage stellt.

Frédéric Berdoz, Leonardo Rugli, Roger Wattenhofer

Veröffentlicht 2026-03-13
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Titel: Können KI-Agenten sich wirklich einigen? – Eine einfache Erklärung

Stellen Sie sich vor, Sie haben eine Gruppe von sehr intelligenten Robotern (den „KI-Agenten"), die zusammenarbeiten sollen, um eine einfache Entscheidung zu treffen: Welche Zahl soll es sein?

Das klingt simpel, aber die Forscher von der ETH Zürich haben herausgefunden, dass diese Roboter oft völlig durcheinanderkommen, selbst wenn sie alle „gut" gemeint haben. Hier ist die Geschichte ihrer Entdeckungen, erzählt mit ein paar anschaulichen Vergleichen.

1. Das Szenario: Ein Treffen ohne Chef

Stellen Sie sich einen großen, runden Tisch vor. Dort sitzen mehrere KI-Roboter.

  • Die Aufgabe: Jeder Roboter beginnt mit einer zufälligen Zahl im Kopf (z. B. zwischen 0 und 50).
  • Das Ziel: Sie müssen sich alle auf eine einzige Zahl einigen, die am Ende von allen akzeptiert wird.
  • Die Regel: Es gibt keinen „Chef", der entscheidet. Sie müssen sich nur untereinander absprechen.
  • Der Clou: Es ist völlig egal, welche Zahl sie wählen. Ob 10 oder 40 – Hauptsache, sie sind sich einig. Das nennt man „kein Einsatz" (No-Stake).

2. Das Problem: Die Roboter sind keine perfekten Logik-Maschinen

Die Forscher haben diese Roboter (basierend auf großen Sprachmodellen wie Qwen) an den Tisch gesetzt. Was passierte?

  • Sie reden aneinander vorbei: Auch wenn alle nur „gute" Roboter sind, schaffen es oft nur etwa 40 % der Gruppen, sich tatsächlich auf eine Zahl zu einigen.
  • Je mehr, desto chaotischer: Wenn man 4 Roboter an den Tisch setzt, klappt es manchmal. Wenn man 16 Roboter hinstellt, wird es ein riesiges Durcheinander. Es ist wie bei einer Party: Je mehr Leute reden, desto schwerer ist es, sich zu verstehen.
  • Die Angst macht sie starr: Wenn den Robotern gesagt wurde: „Achtung, es könnte einen Betrüger geben!", wurden sie noch vorsichtiger und trauten sich weniger, eine Entscheidung zu treffen. Sie blieben oft einfach stehen, wie ein Auto, das vor einer roten Ampel wartet, obwohl niemand da ist.

Die Metapher:
Stellen Sie sich vor, Sie versuchen, mit Freunden einen Film auszusuchen. Jeder schlägt einen vor. Wenn alle freundlich sind, einigt man sich schnell. Aber wenn die KI-Roboter es sind, diskutieren sie endlos über die Details, vergessen, was sie gesagt haben, oder stimmen am Ende trotzdem nicht ab, weil sie denken: „Vielleicht ist meine Idee ja falsch."

3. Der Bösewicht: Der „Byzantinische" Saboteur

Dann brachten die Forscher einen echten Störenfried ins Spiel. Ein „Byzantinischer Agent" ist wie ein Trickster in der Gruppe.

  • Er lügt.
  • Er wirft Zahlen in den Raum, die niemanden interessieren.
  • Er versucht, die Gruppe zu verwirren.

Das schockierende Ergebnis:
Selbst wenn nur ein einziger solcher Trickster in einer Gruppe von 9 Robotern sitzt, bricht das System fast komplett zusammen.

  • Die Gruppe schafft es fast nie, sich zu einigen.
  • Aber hier ist das Wichtigste: Der Trickster hat es nicht geschafft, die Gruppe auf eine falsche Zahl zu bringen. Stattdessen hat er sie einfach gelähmt.
  • Die Analogie: Stellen Sie sich vor, Sie und Ihre Freunde versuchen, einen Weg durch den Wald zu finden. Ein einzelner Verräter schreit ständig: „Links ist es dunkel!", „Rechts ist ein Bär!", „Gehen wir doch gar nicht!". Am Ende gehen Sie nirgendwohin. Sie stehen einfach nur da und warten (das nennt man „Liveness-Verlust"). Sie sind nicht auf dem falschen Weg, Sie sind gar nicht erst losgelaufen.

4. Was bedeutet das für die Zukunft?

Die Forscher kommen zu einem klaren Fazit:

KI-Agenten sind noch nicht bereit, als zuverlässige Entscheidungsträger in Gruppen zu dienen.

  • Vertrauen ist fragil: Selbst in einer friedlichen Umgebung, in der niemand schummeln will, können sie sich oft nicht einigen.
  • Skalierung ist ein Problem: Mehr Roboter bedeuten nicht mehr Intelligenz, sondern mehr Chaos.
  • Sicherheit: Wenn wir in Zukunft KI-Systeme bauen, die lebenswichtige Entscheidungen treffen müssen (z. B. in der Medizin oder bei autonomen Fahrzeugen), können wir uns nicht darauf verlassen, dass sie sich automatisch einigen.

Zusammenfassung in einem Satz

KI-Agenten sind wie eine Gruppe von sehr klugen, aber nervösen Menschen, die in einem lauten Raum versuchen, sich zu einigen; ein einziger Schreihals reicht aus, damit niemand mehr ein Wort versteht, und selbst ohne Schreihals bleiben sie oft einfach stumm stehen, weil sie zu unsicher sind, den ersten Schritt zu tun.

Die Botschaft der Studie ist also eine Warnung: Bevor wir KI-Agenten komplexe Aufgaben übertragen, müssen wir lernen, wie man sie dazu bringt, sich wirklich zu einigen – und das ist derzeit noch eine große Herausforderung.