Community Notes undermoderate polarizing content by design creating risks in electoral processes

Lo studio rivela che, sebbene l'algoritmo di Community Notes di X riesca a identificare le dimensioni polarizzanti e selezionare note trasversali, il suo stesso meccanismo di progettazione porta a una sistematica sottoregolamentazione dei contenuti polarizzanti, creando rischi significativi per i processi elettorali in diversi paesi.

Paul Bouchaud, Pedro Ramaciotti

Pubblicato Thu, 12 Ma
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Ecco una spiegazione semplice e creativa del paper, pensata per chiunque voglia capire cosa sta succedendo dietro le quinte di X (l'ex Twitter) e le sue "Community Notes".

Il Titolo: "Le Note della Comunità: Un Filtro che si ferma proprio quando serve di più"

Immagina che X sia un'enorme piazza pubblica mondiale. In questa piazza, tutti possono urlare, cantare o raccontare storie. Il problema è che a volte qualcuno urla bugie o esagera le cose.

Per risolvere il problema, X ha inventato un sistema chiamato Community Notes (Note della Comunità). È come se la piazza avesse un gruppo di giudici volontari che, quando sentono una bugia, scrivono un bigliettino di smentita e lo attaccano sotto il post originale.

Ma c'è una regola fondamentale per far apparire questo bigliettino: i giudici devono essere d'accordo. Non basta che la metà dei giudici dica "È una bugia". Serve un accordo tra persone che la pensano in modo opposto (ad esempio, un conservatore e un progressista devono entrambi dire: "Sì, questo è sbagliato").

Il Problema: Il "Filtro dell'Armonia"

Gli autori dello studio (due ricercatori francesi) hanno analizzato milioni di questi bigliettini in 13 paesi diversi (dai USA alla Francia, dal Giappone al Brasile). Hanno scoperto una cosa molto importante e un po' preoccupante:

Il sistema è progettato per funzionare bene quando c'è "armonia", ma fallisce quando c'è "guerra".

Ecco l'analogia per capirlo:
Immagina un filtro per il caffè.

  • Se metti acqua calda e caffè normale, il filtro funziona: il caffè passa, le impurità restano.
  • Ma se provi a filtrare due liquidi che si odiano mortalmente (come olio e acqua, o due colori opposti che non vogliono mescolarsi), il filtro si blocca. Non riesce a decidere quale sia il "vero" colore.

Nel caso di X, quando un post riguarda un argomento polarizzante (come un'elezione politica, una guerra o un leader controverso), i giudici si dividono in due fazioni:

  1. La fazione A dice: "È una bugia, attaccate il bigliettino!".
  2. La fazione B dice: "No, è vero, non attaccate nulla!".

Poiché il sistema richiede che entrambe le fazioni siano d'accordo per mostrare la nota, il bigliettino non viene mai mostrato. Il sistema si blocca.

Cosa succede durante le elezioni?

Lo studio ha guardato cosa succede durante le elezioni (negli USA, UK, Francia e Germania). È come se la piazza fosse in preda al panico e tutti stessero urlando.

  • Risultato: Le note che parlano di elezioni vengono mostrate molto meno spesso rispetto ad altre notizie (come notizie su truffe, video falsi o sciocchezze).
  • Perché? Perché durante un'elezione, le persone sono così divise politicamente che è quasi impossibile trovare un accordo tra "sinistra" e "destra" su cosa sia una bugia.

L'analogia della gara di calcio:
Immagina che durante una partita di calcio molto accesa, due tifosi (uno della squadra di casa, uno della squadra ospite) vedano un fallo.

  • Il tifoso di casa dice: "È un fallo!".
  • Il tifoso ospite dice: "No, è un gioco lecito!".
  • L'arbitro (il sistema di X) dice: "Visto che non siete d'accordo, non fischio nulla".
  • Risultato: Il fallo rimane impunito, anche se era palese.

La Scoperta Principale: "Sottoregolamentato per Progettazione"

Gli autori dicono che questo non è un errore, ma una scelta di progettazione.
Il sistema è stato costruito per cercare la "verità condivisa" (ciò che tutti accettano). Ma nelle società moderne, la verità su temi politici è spesso divisa.

Quindi, il sistema di X finisce per ignorare sistematicamente i contenuti più controversi e pericolosi proprio nel momento in cui sono più diffusi (come durante un'elezione).

Perché è pericoloso?

Se durante un'elezione circolano notizie false che influenzano il voto, e il sistema di X non riesce a metterci un "avviso" perché i giudici sono troppo divisi, allora:

  1. Le bugie continuano a circolare senza ostacoli.
  2. Il dibattito pubblico si avvelena.
  3. Il processo democratico è a rischio.

In sintesi

Le Community Notes sono come un sistema di sicurezza che funziona benissimo quando tutti sono d'accordo sul fatto che c'è un intruso. Ma se l'intruso è qualcuno che la metà della gente ama e l'altra metà odia, il sistema di sicurezza si blocca e dice: "Non so chi ha ragione, quindi non faccio nulla".

Lo studio ci avverte: non possiamo affidarci solo a questo sistema per proteggere le nostre elezioni, perché è fatto per cercare il compromesso, non per fermare le bugie quando la società è spaccata a metà. Serve un aiuto extra (come i fact-checker professionisti) proprio quando il sistema automatico fallisce.