Each language version is independently generated for its own context, not a direct translation.
Hier ist eine einfache Erklärung der Studie, als würde man sie einem Freund beim Kaffee erzählen – mit ein paar bildhaften Vergleichen.
Das große Experiment: Wer entscheidet, was wahr ist?
Stellen Sie sich X (ehemals Twitter) als einen riesigen, chaotischen Marktplatz vor. Jeder kann dort schreien, was er will. Das Problem: Viele schreien Lügen oder Halbwahrheiten. Früher gab es dafür „Polizisten" (Faktenchecker), die alles kontrollierten. Aber das ging nicht mehr, weil zu viel geschrien wurde.
Also hat X eine neue Idee ausprobiert: Community Notes.
Das ist wie eine riesige Jury aus normalen Nutzern. Wenn jemand einen verdächtigen Tweet sieht, kann er einen „Hinweis" (eine Notiz) schreiben, der erklärt, warum das falsch ist. Andere Nutzer bewerten dann: „Ist dieser Hinweis hilfreich?"
Das Problem: Die „Einheits-Jury"
Hier kommt der Clou (und das Problem) ins Spiel. Damit ein Hinweis sichtbar wird, müssen sich nicht nur die Leute aus dem linken Lager und die Leute aus dem rechten Lager einig sein. Sie müssen sich miteinander einig sein.
Stellen Sie sich vor, Sie haben eine Jury, die aus zwei Gruppen besteht:
- Die Linke: Sieht einen Tweet von einem Konservativen und denkt: „Das ist Unsinn!"
- Die Rechte: Sieht denselben Tweet und denkt: „Geniale Wahrheit!"
Wenn die Linke einen Hinweis schreibt, der sagt „Das ist falsch!", stimmt die Rechte dem nie zu. Und umgekehrt.
Das System von X ist so programmiert, dass es nur Hinweise anzeigt, die von beiden Seiten als „hilfreich" bewertet werden. Es sucht nach dem „kleinsten gemeinsamen Nenner".
Die Entdeckung: Das System ist von Haus aus blind für Polarisierung
Die Autoren der Studie (Bouchaud und Ramaciotti) haben sich 1,9 Millionen dieser Hinweise in 13 Ländern angesehen. Ihre Erkenntnis ist verblüffend und etwas beunruhigend:
Das System funktioniert genau so, wie es designed ist – aber das Design hat einen fatalen Fehler.
- Es findet die Spaltung: Das System ist extrem gut darin, die politische Spaltung eines Landes zu erkennen. In den USA findet es genau die Trennlinie zwischen Demokraten und Republikanern. In Frankreich zwischen Links und Rechts. Es versteht also, wo die Leute stehen.
- Es ignoriert die heftigen Streits: Genau weil es Hinweise sucht, die alle mögen, werden die wichtigsten und umstrittensten Themen automatisch ausgefiltert.
Die Analogie: Der schweigende Moderator
Stellen Sie sich eine Debatte in einem Saal vor.
- Szenario A (Langweilig): Jemand sagt: „Der Mond besteht aus Käse."
- Alle sind sich einig: „Nein, das ist falsch."
- Ergebnis: Der Hinweis wird angezeigt. Alles gut.
- Szenario B (Politischer Streit): Jemand sagt: „Die Wahlen wurden manipuliert." (Oder: „Dieses Gesetz ist eine Katastrophe für die Wirtschaft").
- Die eine Hälfte schreit: „Wahrheit!"
- Die andere Hälfte schreit: „Lüge!"
- Ergebnis: Niemand kann sich einigen. Das System sagt: „Kein Konsens gefunden." Der Hinweis bleibt unsichtbar.
Das ist das Design-Problem: Das System unterdrückt (undermoderates) absichtlich Inhalte, die polarisieren. Es bevorzugt langweilige, unumstrittene Fakten vor den wichtigen, aber streitbaren politischen Themen.
Warum das bei Wahlen gefährlich ist
Die Studie hat sich speziell die Wahlen in den USA (2024), Großbritannien (2024), Frankreich (2024) und Deutschland (2025) angesehen.
Das Ergebnis ist alarmierend:
- Bei Themen wie „Betrug", „Fake-News über Produkte" oder „Witze" funktioniert das System super. Die Hinweise werden angezeigt.
- Bei Wahlthemen funktioniert es kaum. Hinweise zu Wahlmanipulationen, Kandidaten oder Skandalen erreichen viel seltener den Status „hilfreich" als bei anderen Themen.
Warum? Weil bei Wahlen die Fronten am härtesten verlaufen. Die Leute hören nicht auf die andere Seite. Da das System aber nur Hinweise zeigt, die beide Seiten mögen, bleiben die gefährlichsten Lügen über Wahlen oft unkorrigiert.
Das Fazit in einem Satz
Das Community-Notes-System ist wie ein Schiedsrichter, der nur dann pfeift, wenn beide Mannschaften zustimmen. Bei einem Fußballspiel ist das okay. Aber bei einem politischen Streit, bei dem die Teams sich hassen, bedeutet das: Der Schiedsrichter sieht gar nichts, wenn es am heißesten wird.
Das System ist also nicht „schlecht" im Sinne von kaputt, sondern es ist zu vorsichtig. Es schützt die Plattform vor Streit, aber es opfert dabei die Wahrheit in den wichtigsten politischen Momenten. Für eine Demokratie, die auf eine informierte Öffentlichkeit angewiesen ist, ist das ein riesiges Risiko.