Each language version is independently generated for its own context, not a direct translation.
Immagina che l'Intelligenza Artificiale sia come un cuoco molto abile, ma che ha imparato a cucinare guardando solo dei libri di ricette scritti in una lingua specifica (l'inglese) e basati su una cultura molto precisa. Questo cuoco è bravissimo, ma quando gli chiedi di cucinare un piatto per una cultura diversa, tende a usare gli ingredienti e i sapori che conosce meglio, ignorando le tradizioni locali.
Questo è esattamente il problema che gli autori di questo studio, provenienti dall'Università del Paese Basco, hanno voluto investigare.
Ecco la spiegazione semplice di cosa hanno fatto e cosa hanno scoperto, usando qualche metafora.
1. Il Problema: Il "Bias" di Genere
Molti sistemi di traduzione automatica (come Google Translate o le nuove intelligenze artificiali) imparano leggendo enormi quantità di testi presi da internet. Purtroppo, internet è pieno di stereotipi: spesso si associa automaticamente "infermiere" a "lei" e "ingegnere" a "lui".
Quando un sistema di traduzione vede una parola neutra, tende a indovinare il genere basandosi su questi vecchi stereotipi, invece di guardare la realtà.
2. La Sfida: La Lingua Basca
Il Paese Basco (Euskara) è una lingua speciale. È come un'isola linguistica: non ha il "genere grammaticale". In basco, non esiste la differenza tra "il" e "la", o tra "lui" e "lei" nei pronomi. È una lingua neutra.
Immagina che il basco sia una stanza bianca e vuota. Quando traduci da questa stanza bianca verso lingue come lo spagnolo o il francese (che hanno colori maschili e femminili), il sistema di traduzione deve "inventare" un colore. E spesso, sceglie il colore "maschile" di default, anche se non dovrebbe.
3. Gli Strumenti: Due Nuovi Giochi da Tavolo
Per capire quanto questi cuochi (le intelligenze artificiali) siano di parte, gli autori hanno creato due nuovi "giochi" o test specifici per il basco:
WinoMTeus (Il gioco degli stereotipi):
Immagina di avere una frase in basco neutra: "Il meccanico ha chiamato l'infermiere perché si era rotto la gamba." In basco, non sai chi è maschio o femmina.
Il test chiede al sistema di tradurre questa frase in spagnolo o francese.- La domanda: Tradurrà "infirmiere" come l'infermiera (femminile, perché nella realtà sono per lo più donne) o come l'infermiere (maschile, perché il sistema pensa che "infermiere" sia un lavoro da uomini)?
- Il risultato: Hanno confrontato le traduzioni con i dati reali del lavoro in Basco. Hanno scoperto che i sistemi, anche quelli più moderni, tendono a "mascolinizzare" i lavori, anche quando nella realtà sono fatti per il 90% da donne (come le governanti o le sarte). È come se il cuoco, vedendo una ricetta per una torta, decidesse di metterci il sale perché "di solito le torte sono salate" basandosi su un vecchio libro sbagliato.
FLORES+Gender (Il test della qualità):
Qui hanno fatto il contrario. Hanno preso frasi in spagnolo o inglese dove il genere è chiaro (es. "Il conducente maschio" vs "La conducente femmina") e le hanno tradotte in basco.- La domanda: La traduzione è migliore quando la frase originale parla di un uomo o di una donna?
- Il risultato: In alcuni casi, le traduzioni erano leggermente migliori quando parlavano di uomini. È come se il cuoco fosse più veloce e preciso quando gli chiedi di cucinare un piatto "maschile" rispetto a uno "femminile", semplicemente perché si è allenato di più su quello.
4. Cosa hanno scoperto?
Hanno testato molte intelligenze artificiali diverse (alcune gratuite, alcune a pagamento, alcune fatte apposta per il basco).
- Il "Default" Maschile: Quasi tutti i sistemi hanno mostrato una preferenza sistematica per la forma maschile. Anche quando la realtà dice che un lavoro è fatto da donne, l'IA tende a usare la parola maschile.
- Non tutti sono uguali: Alcuni modelli (come quelli più recenti o quelli addestrati specificamente per la traduzione) sono un po' più attenti e si avvicinano di più alla realtà, ma il bias (il pregiudizio) c'è ancora.
- La qualità varia: Quando si traduce verso il basco, la qualità della traduzione cambia leggermente a seconda che si parli di un uomo o di una donna, il che suggerisce che i modelli "pensano" diversamente in base al genere.
5. Perché è importante?
Questo studio ci dice che non basta avere un traduttore veloce. Dobbiamo assicurarci che sia anche giusto. Se un'IA decide sempre che un medico è un uomo e un'infermiera è una donna (o viceversa, ma con una forte preferenza per il maschile), sta rafforzando stereotipi dannosi nella società.
In sintesi:
Gli autori hanno creato due nuovi "specchi" per guardare le intelligenze artificiali. Hanno scoperto che, anche quando si parla di una lingua neutra come il basco, le IA portano con sé i pregiudizi delle lingue da cui provengono, scegliendo spesso l'opzione maschile come "default". È un campanello d'allarme: dobbiamo insegnare alle macchine a vedere la realtà, non solo i vecchi stereotipi.