A Systematic Analysis of Biases in Large Language Models

Questo studio analizza sistematicamente i pregiudizi politici, ideologici, geopolitici, linguistici e di genere presenti in quattro ampiamente utilizzati modelli linguistici su larga scala, rivelando che, nonostante i tentativi di allineamento alla neutralità, questi modelli mantengono diverse forme di inclinazione e bias.

Xulang Zhang, Rui Mao, Erik Cambria

Pubblicato 2026-03-05
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Immagina che i grandi modelli linguistici (come quelli che usi per scrivere email, fare ricerche o chattare) siano come cuochi stellati molto famosi. Questi cuochi hanno cucinato milioni di piatti (dati) imparando da ricette scritte da persone reali. Il problema è che le persone non sono perfette: a volte hanno pregiudizi, opinioni politiche diverse o stereotipi. Di conseguenza, anche questi "cuochi digitali" potrebbero aver assorbito involontariamente i gusti, i pregiudizi e le preferenze dei loro "insegnanti" umani.

Questo studio, condotto da ricercatori di Singapore, ha deciso di mettere alla prova quattro di questi "cuochi" digitali famosi (chiamati Qwen, DeepSeek, Gemini e GPT) per vedere se sono davvero neutri o se, in realtà, hanno i loro "gusti personali" nascosti.

Ecco cosa hanno scoperto, spiegato con parole semplici e qualche metafora:

1. La Bilancia Politica: Chi pende da che parte?

Immagina di chiedere a questi cuochi di riassumere una notizia politica in modo neutro, come se dovessero scrivere un articolo per un giornale che non prende mai posizione.

  • Cosa hanno fatto: Hanno confrontato i loro riassunti con articoli scritti da giornali di sinistra e di destra.
  • Il risultato: In generale, sono bravi a stare in equilibrio. Tuttavia, quando scrivono riassunti di alta qualità (molto ben fatti), tendono a sembrare leggermente più vicini alla sinistra.
  • Le eccezioni:
    • Gemini sembra avere un leggero gusto per la destra.
    • GPT è leggermente più vicino alla sinistra.
    • DeepSeek è stato il più equilibrato, come un arbitro che non sbaglia mai un fischio.

2. L'Ideologia: Chi capisce meglio le sfumature?

Qui i ricercatori hanno chiesto ai modelli di dire se una notizia fosse di sinistra, destra o centro, specialmente su temi caldi come l'immigrazione, i diritti LGBT o l'aborto.

  • Il risultato: Non sono tutti uguali nel capire le sfumature.
    • Gemini è un po' "sordo" alle differenze ideologiche: tende a dire che tutto è "centro", ma se sbaglia, sbaglia più spesso a favore della destra.
    • GPT è molto sensibile e tende a capire meglio le sfumature della sinistra.
    • Qwen e DeepSeek a volte confondono le idee: quando sbagliano, tendono a scambiare le posizioni opposte (es. dire che una notizia di destra è di sinistra), come se non avessero afferrato bene il "linguaggio" di chi la pensa diversamente.

3. L'Alleanza Globale: Chi voterebbe come chi?

Immagina di chiedere a questi modelli di fare finta di essere i delegati dell'ONU e votare su risoluzioni internazionali.

  • Il risultato: Ogni modello ha un "amico" geopolitico diverso.
    • Tutti tendono ad essere d'accordo con i paesi dell'America Latina e dell'Africa (forse perché nei loro dati di addestramento queste voci sono presenti).
    • Gemini è il più simile alla realtà: vota in modo molto simile ai delegati umani reali. Curiosamente, è l'unico che non è d'accordo con gli USA e invece concorda con paesi come Cina e Corea del Nord.
    • GPT e Qwen invece tendono a non essere d'accordo con l'Europa dell'Est e mostrano forti disaccordi con la Cina e la Corea del Nord.

4. La Lingua: Pensano diversamente in lingue diverse?

I ricercatori hanno chiesto ai modelli di scrivere storie su culture immaginarie, ma in 92 lingue diverse. L'idea era: "Se parli in una lingua diversa, pensi in modo diverso?"

  • Il risultato: Sorprendentemente, no. Non pensano che il mondo sia "inglese" solo perché i loro dati sono pieni di inglese.
  • L'eccezione: Quando parlano lingue dell'Africa meridionale (che hanno meno dati disponibili), i modelli tendono a "pensare" in modo molto simile a come pensano in inglese. È come se, quando parlano una lingua rara, usassero un "traduttore mentale" che li riporta al loro modo di pensare originale.

5. Il Genere: Chi rappresentano di più?

Hanno fatto rispondere ai modelli a un sondaggio globale sui valori (World Values Survey) senza dire loro se erano uomini o donne.

  • Il risultato: Tutti e quattro i modelli hanno risposto in modo molto più simile alle donne che agli uomini.
  • Il campione: GPT è quello che si allinea di più con i valori femminili e si distacca di più da quelli maschili.
  • Il messaggio: I modelli sembrano avere una "predisposizione" verso valori più progressisti, che spesso coincidono con le tendenze globali femminili.

La Conclusione: Perché succede?

I ricercatori spiegano che questi modelli sono come spugne: assorbono tutto ciò che leggono. Se le persone che hanno scritto i dati di addestramento avevano pregiudizi, i modelli li avranno ereditati. Anche quando proviamo a "insegnar loro" ad essere buoni e neutri (un processo chiamato allineamento), a volte finiamo per insegnar loro i nostri stessi pregiudizi umani, che non sono perfetti.

In sintesi: Questi modelli sono strumenti incredibili, ma non sono "oracoli" neutri. Hanno i loro gusti, le loro preferenze politiche e le loro visioni del mondo. Come utenti, dobbiamo essere consapevoli che quando chiediamo loro un parere, stiamo ascoltando una versione "distillata" delle opinioni umane, con tutte le sue imperfezioni. Non sono macchine perfette, ma specchi un po' distorti della nostra società.