What Triggers my Model? Contrastive Explanations Inform Gender Choices by Translation Models

Questo studio esplora le origini del bias di genere nei modelli di traduzione neurale analizzando, tramite spiegazioni contrastive e attribuzione di salienza, quali token di input influenzano la scelta del genere nelle traduzioni e confrontando tali meccanismi con le percezioni umane.

Janiça Hackenbuchner, Arda Tezcan, Joke Daems

Pubblicato 2026-03-05
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♀️ Il Detective Digitale: Chi decide il genere in una traduzione?

Immagina che un traduttore automatico (come Google Translate o DeepL) sia come un cuoco molto veloce che prepara piatti per il mondo. Se gli dai una ricetta in inglese che dice "Il cuoco sta cucinando", il cuoco automatico deve decidere se servire il piatto con un cappello da chef maschio o femmina quando lo traduce in lingue come il tedesco o lo spagnolo (dove le parole hanno un genere grammaticale).

Spesso, questo cuoco fa errori basati su stereotipi: se la ricetta parla di un "infermiere", lui indossa automaticamente il cappello da chef maschio, anche se nella realtà potrebbe essere una donna.

Il problema è: perché lo fa? È un "scatola nera" che prende decisioni senza spiegarci il motivo.

🔍 L'Esperimento: La "Lente Magica"

Gli autori di questo studio (ricercatori dell'Università di Gand) hanno deciso di usare una lente magica chiamata spiegazione contrastiva.

Immagina di avere due versioni dello stesso testo:

  1. Versione A: "Il paziente è entrato in travaglio" (tradotto automaticamente come maschio).
  2. Versione B: Una versione modificata dove il cuoco è costretto a tradurlo come femmina.

La "lente magica" analizza le differenze tra queste due versioni e chiede al modello: "Quale parola esatta della frase originale ti ha spinto a scegliere il cappello da chef maschio invece di quello femmina?".

È come se chiedessimo al cuoco: "Hai scelto il cappello maschio perché c'era la parola 'travaglio'? O perché c'era la parola 'paziente'?".

🧠 Cosa hanno scoperto?

Ecco i tre punti chiave, spiegati con analogie:

1. Il Cuoco e l'Umano pensano in modo simile (ma non uguale)

Hanno scoperto che il traduttore automatico guarda le stesse parole che guarderebbe un essere umano per capire il genere.

  • L'analogia: Se leggi "La dottor ha curato il paziente", sia un umano che il computer notano che "dottor" è una parola chiave.
  • Il risultato: C'è un'alta sovrapposizione (circa l'85%) tra le parole che il modello considera importanti e quelle che gli umani indicano come decisive. Quindi, il modello non è "pazzo", sta solo seguendo indizi che noi usiamo anche noi.

2. Ma il Cuoco è un po' "selettivo" (Nomi e Verbi vs. Tutto il resto)

Qui sta la differenza fondamentale.

  • Gli umani sono come investigatori che guardano tutto il contesto: guardano i nomi, gli aggettivi, i pronomi, e anche quanto lontano è la parola dal soggetto. Se c'è una frase lunga e complessa, l'umano la legge tutta per capire.
  • Il modello, invece, è come un investigatore frettoloso che si fissa solo su due cose: i Sostantivi (Nomi) e i Verbi.
    • Esempio: Se la frase è "Il bambino che correva era felice", il modello si fissa su "bambino" e "correva" e ignora quasi tutto il resto. Gli umani, invece, potrebbero essere influenzati anche da parole più lontane o da intere frasi.

3. Il problema della "Soglia"

Uno dei problemi precedenti era: "Quante parole dobbiamo guardare per dire che sono importanti?".
Gli autori hanno provato diversi metodi (come guardare solo la parola più importante, o le prime 5 parole, o quelle con un certo "peso"). Hanno scoperto che il metodo migliore è guardare il 15% delle parole più importanti della frase. È come se dicessimo: "Non guardiamo tutto il libro, ma concentriamoci sui 15% delle pagine più significative".

🎯 Perché è importante?

Prima di questo studio, cercavamo solo di misurare quanto il traduttore fosse sessista (es. "Traduce 'infermiere' al maschile il 90% delle volte").
Ora, grazie a questa ricerca, stiamo cercando di capire il "perché".

  • L'obiettivo: Non basta dire "Smettila di essere sessista". Dobbiamo capire quali parole stanno ingannando il modello. Se sappiamo che il modello si fissa troppo sui verbi e ignora il contesto più ampio, possiamo insegnargli a guardare meglio.

🏁 Conclusione

In sintesi, questo studio ci dice che i traduttori automatici non sono mostri misteriosi: guardano le stesse parole che guardiamo noi, ma lo fanno in modo un po' troppo rigido e frettoloso.

Usando queste "lenti" per capire cosa succede nella testa del computer, possiamo diventare i suoi allenatori, insegnandogli a non basarsi solo sugli stereotipi (come "le donne fanno le infermiere") ma a guardare il contesto completo, proprio come farebbe un traduttore umano attento.

È un passo fondamentale per rendere la tecnologia più giusta, inclusiva e, soprattutto, comprensibile.