Trust as Monitoring: Evolutionary Dynamics of User Trust and AI Developer Behaviour

Die Studie nutzt evolutionäre Spieltheorie, um zu zeigen, dass eine sichere und weit verbreitete KI-Nutzung nur dann evolutionär stabil ist, wenn die Sanktionen für unsicheres Verhalten die zusätzlichen Sicherheitskosten übersteigen und Nutzer in der Lage bleiben, durch kostengünstige Überwachung Vertrauen dynamisch anzupassen, da weder reine Regulierung noch blindes Vertrauen ausreichen.

Adeela Bashir, Zhao Song, Ndidi Bianca Ogbo, Nataliya Balabanova, Martin Smit, Chin-wing Leung, Paolo Bova, Manuel Chica Serrano, Dhanushka Dissanayake, Manh Hong Duong, Elias Fernandez Domingos, Nikita Huber-Kralj, Marcus Krellner, Andrew Powell, Stefan Sarkadi, Fernando P. Santos, Zia Ush Shamszaman, Chaimaa Tarzi, Paolo Turrini, Grace Ibukunoluwa Ufeoshi, Victor A. Vargas-Perez, Alessandro Di Stefano, Simon T. Powers, The Anh Han

Veröffentlicht 2026-03-27
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🤖 Vertrauen ist nicht blindes Glauben, sondern „nicht nachzählen"

Stellen Sie sich vor, Sie kaufen jeden Tag Brot bei einem Bäcker.

  • Der Bäcker (der KI-Entwickler) kann ehrlich sein und frisches, sicheres Brot backen (das kostet ihn etwas mehr Zeit und Geld). Oder er ist faul und verkauft Ihnen altes, vergiftetes Brot, um Geld zu sparen.
  • Sie (der Nutzer) wollen das Brot essen. Aber wie wissen Sie, ob es sicher ist?

In der Vergangenheit dachten viele: „Vertrauen bedeutet, dem Bäcker blind zu glauben." Diese Studie sagt jedoch: Nein, Vertrauen bedeutet eigentlich, dass Sie aufhören, das Brot ständig zu überprüfen.

Wenn Sie dem Bäcker vertrauen, lassen Sie die Kontrolle weg. Aber das Überprüfen kostet Zeit und Nerven (in der Studie nennt man das Überwachungskosten). Wenn das Überprüfen zu teuer oder zu mühsam wird, hören Sie auf zu prüfen – und das ist gefährlich, wenn der Bäcker lügt.

🎮 Das große Spiel: Wie wir lernen, wem wir trauen

Die Forscher haben ein mathematisches Spiel entwickelt, um zu sehen, wie sich dieses Verhältnis über Jahre entwickelt. Sie haben drei verschiedene Methoden benutzt, um das zu simulieren:

  1. Die große Masse (Unendliche Population): Wie ein riesiger Markt, wo sich alle Strategien sofort ausbreiten.
  2. Die kleine Gruppe (Endliche Population): Wie ein Dorf, wo Zufall und Gerüchte eine Rolle spielen.
  3. Das Lernen durch Versuch und Irrtum (KI-Lernen): Wie ein Roboter, der durch Ausprobieren lernt, was funktioniert.

🏆 Die drei möglichen Welten

Das Spiel zeigt, dass es am Ende nur drei mögliche Szenarien gibt, in die sich unsere Gesellschaft entwickeln kann:

  1. Die „Verweigerungs-Welt" (Niemand kauft):
    Die Leute haben so oft schlechte Erfahrungen gemacht oder haben Angst vor vergiftetem Brot, dass sie gar nichts mehr kaufen. Der Bäcker backt trotzdem unsicheres Brot, aber niemand profitiert davon. Das ist eine traurige, leere Welt.

  2. Die „Blind-Vertrauens-Welt" (Alle kaufen, aber es ist gefährlich):
    Die Leute kaufen alles, weil sie denken, es sei sicher. Aber in Wirklichkeit backt der Bäcker immer noch das vergiftete Brot, weil es ihm nichts kostet, es zu tun. Die Leute werden langsam krank, aber sie wissen es nicht, weil sie nicht mehr nachprüfen. Das ist die gefährlichste Welt, weil sie sich gut anfühlt, aber im Verborgenen zerstört.

  3. Die „Gesunde-Welt" (Alle kaufen und es ist sicher):
    Das ist das Ziel. Der Bäcker backt sicheres Brot, und die Leute kaufen es. Aber warum? Weil es drei Dinge braucht:

    • Strafen: Wenn der Bäcker vergiftetes Brot verkauft, muss er eine hohe Geldstrafe zahlen (z. B. durch Gesetze wie den EU-AI-Akt). Diese Strafe muss höher sein als der Gewinn, den er durch Betrug macht.
    • Günstiges Überprüfen: Es muss für die Kunden leicht und billig sein, das Brot zu prüfen (z. B. durch transparente Zutatenlisten oder unabhängige Tests).
    • Kein blindes Vertrauen: Die Kunden dürfen nicht immer vertrauen. Sie müssen ab und zu nachschauen. Wenn sie das Überprüfen komplett einstellen, trauen sie sich zu viel und der Bäcker wird faul.

💡 Die wichtigsten Erkenntnisse in einfachen Worten

  • Vertrauen ist ein Werkzeug, kein Gefühl: Vertrauen ist hier definiert als „ich überprüfe seltener". Das ist klug, weil Überprüfen kostet. Aber wenn es zu teuer wird, hören wir auf zu prüfen, und das ist der Moment, in dem Betrüger gewinnen.
  • Gesetze allein reichen nicht: Wenn die Strafen für den Bäcker zu niedrig sind, wird er immer versuchen, das vergiftete Brot zu verkaufen, egal wie sehr die Kunden ihm vertrauen.
  • Transparenz ist der Schlüssel: Wenn es für die Kunden einfach ist, das Brot zu prüfen (niedrige Kosten), dann trauen sie sich eher, zu kaufen, und der Bäcker traut sich eher, ehrlich zu sein.
  • Der „Blind-Vertrauens-Fehler": Wenn wir sagen „Vertraue der KI!", ohne sie zu prüfen, schaffen wir einen perfekten Nährboden für unsichere Systeme. Echte Sicherheit entsteht nur, wenn wir bereit sind, gelegentlich nachzuprüfen.

🚀 Was bedeutet das für uns?

Die Studie sagt uns: Wir brauchen keine blinden Fans der KI, sondern kluge Nutzer.
Die Politik muss sicherstellen, dass:

  1. Die Strafen für unsichere KI hoch genug sind.
  2. Es für uns einfach und billig bleibt, KI-Systeme zu überprüfen (z. B. durch offene Quellen oder klare Berichte).

Nur so entsteht eine Welt, in der wir KI nutzen können, ohne uns selbst in Gefahr zu bringen. Vertrauen ist also nicht das Ende der Wachsamkeit, sondern das Ergebnis einer klugen Balance zwischen Überprüfen und Loslassen.