Benchmarking Political Persuasion Risks Across Frontier Large Language Models

Die Studie zeigt, dass moderne Large Language Models in zwei großen Umfragen (N=19.145) politisch persuasiver wirken als klassische Wahlkampfwerbung, wobei Claude am effektivsten und Grok am wenigsten effektiv ist, während die Wirkung von informationsbasierten Prompts modellabhängig variiert.

Zhongren Chen, Joshua Kalla, Quan Le

Veröffentlicht Wed, 11 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache, bildhafte Zusammenfassung der Studie auf Deutsch:

🤖 Der große Wahlkampf-Roboter-Test: Wer überzeugt am besten?

Stellen Sie sich vor, wir befinden uns in einer Welt, in der nicht mehr nur menschliche Politiker oder Werbespots versuchen, Ihre Meinung zu ändern. Stattdessen treten hochintelligente Computer-Köpfe (künstliche Intelligenz oder KI) in den Ring. Die Forscher wollten herausfinden: Wie stark können diese neuen KI-Modelle uns wirklich überzeugen? Und sind sie gefährlicher als ein klassischer Wahlplakat-Werbetexter?

Hier ist das Ergebnis, übersetzt in eine Geschichte:

1. Der Wettkampf: Die "Frontier"-Modelle

Die Forscher haben sieben der aktuell stärksten KI-Modelle (die sogenannten "Frontier"-Modelle) gegeneinander antreten lassen. Man kann sich diese wie verschiedene Sportler vorstellen:

  • Claude (von Anthropic): Der starke, strategische Läufer.
  • GPT (von OpenAI) & Gemini (von Google): Die schnellen, technischen Sprinter.
  • Grok (von xAI): Der etwas ungestüme, aber weniger effektive Athlet.

Sie haben diese KIs gebeten, in einem Chat mit echten Menschen über zwei heikle Themen zu diskutieren:

  1. Soll das Mindestlohn erhöht werden? (Ein klassisches Wirtschaftsthema).
  2. Sollten illegale Einwanderer einheimische Studiengebühren zahlen dürfen? (Ein emotionales Gesellschaftsthema).

2. Das überraschende Ergebnis: Die KI schlägt den Menschen

Früher dachten viele, KI sei wie ein starrer Roboter, der nicht wirklich überzeugen kann. Diese Studie zeigt jedoch das Gegenteil:

  • Die KI-Modelle waren durchweg besser als normale Wahlkampf-Werbefilme.
  • Stellen Sie sich vor, ein klassischer TV-Werbespot ist wie ein lauter Lautsprecher, der nur einmal schreit. Die KI hingegen ist wie ein persönlicher Gesprächspartner, der genau auf Ihre Sorgen eingeht, Ihre Fragen beantwortet und Sie Schritt für Schritt umstimmt.
  • In diesem "Gesprächswettbewerb" gewann die KI fast immer gegen die menschlichen Werbespots.

3. Die Rangliste: Wer ist der "König" der Überzeugung?

Nicht alle KIs sind gleich gut. Die Forscher haben eine klare Hierarchie entdeckt:

  • 🥇 Der Gewinner: Claude. Diese KI war der überzeugendste Redner. Sie konnte Menschen am effektivsten von ihrer Meinung abbringen.
  • 🥈 Die Mittelfeld-Läufer: GPT und Gemini. Sie waren gut, aber nicht ganz so stark wie Claude.
  • 🥉 Der Schlusslicht: Grok. Diese KI war am wenigsten erfolgreich. Sie konnte die Menschen kaum bewegen.

Wichtig: Diese Reihenfolge galt für fast alle Themen und für beide Seiten (ob man für oder gegen eine Sache argumentierte).

4. Der "Informations-Trick" funktioniert nicht immer

Frühere Studien sagten: "Wenn man der KI sagt: 'Nur Fakten und Zahlen verwenden!', dann wird sie noch besser überzeugen."
Die neue Studie sagt: Nicht unbedingt!

  • Bei Claude und Grok halfen Fakten tatsächlich.
  • Bei GPT war es sogar schädlich! Wenn GPT versucht, nur trockene Fakten zu liefern, verliert sie ihre Magie und wird weniger überzeugend.
  • Die Lehre: Es gibt keinen "Einheits-Trick". Was bei einem KI-Modell funktioniert, kann bei einem anderen das Gegenteil bewirken.

5. Wie machen sie das? (Die geheime Waffe)

Die Forscher haben sich die Gespräche genau angesehen und herausgefunden, welche "Tricks" die KIs benutzen:

  • Die beste Waffe: "Call-to-Action" (Handlungsaufforderung). Die erfolgreichste KI sagte nicht nur "Denken Sie mal drüber nach", sondern: "Rufen Sie Ihren Abgeordneten an! Unterschreiben Sie diese Petition!" Das war der stärkste Hebel.
  • Die schlechte Waffe: "Argumentative Konfrontation". Wenn die KI zu aggressiv wurde und den Nutzer direkt angreift ("Das ist falsch!"), verlor sie sofort an Überzeugungskraft.
  • Überraschung: Reine Fakten und Zahlen (die die KI oft liefert) waren gar nicht so wichtig für den Erfolg. Emotionale Ansprache und konkrete Handlungsaufforderungen waren viel mächtiger.

6. Warum ist das gefährlich?

Stellen Sie sich vor, ein böswilliger Akteur (z. B. ein ausländischer Staat oder ein Manipulator) hat Zugriff auf diese super-intelligenten KIs.

  • Früher brauchte man Tausende von Menschen, um eine Kampagne zu starten.
  • Heute kann ein einziger Computer Millionen von Menschen gleichzeitig, personalisiert und extrem überzeugend ansprechen.
  • Da Claude so gut darin ist, Menschen zu manipulieren, besteht die Gefahr, dass diese Technologie genutzt wird, um Wahlen zu beeinflussen, die Demokratie zu untergraben oder ganze Bevölkerungsgruppen in eine bestimmte Richtung zu drängen.

Fazit in einem Satz

Die neuen KI-Modelle sind nicht nur "kluge Chatbots", sondern mächtige Überzeugungstäter, die oft besser sind als menschliche Werbetexter – und zwar besonders dann, wenn sie emotional und handlungsorientiert kommunizieren, statt nur trockene Fakten zu liefern. Das ist eine große Herausforderung für unsere Demokratie.