Gender Bias in MT for a Genderless Language: New Benchmarks for Basque

Este trabalho apresenta novos benchmarks para avaliar o viés de gênero em sistemas de tradução automática e modelos de linguagem ao traduzir para e a partir do basco, uma língua sem gênero, revelando uma preferência sistemática por formas masculinas e a necessidade de métodos de avaliação que considerem tanto características linguísticas quanto o contexto cultural.

Amaia Murillo, Olatz-Perez-de-Viñaspre, Naiara Perez

Publicado 2026-03-10
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que as Inteligências Artificiais (IAs) que traduzem textos são como cozinheiros muito rápidos, mas que nunca saíram da cozinha. Eles aprenderam a cozinhar lendo milhões de receitas da internet. O problema é que, na internet, muitas receitas têm preconceitos escondidos: se a receita diz "o cozinheiro", a IA assume automaticamente que é um homem, mesmo que na vida real existam muitas mulheres excelentes cozinheiras.

Este artigo de pesquisa é como um teste de degustação feito para descobrir se esses "cozinheiros digitais" estão servindo pratos com viés de gênero, especialmente quando lidam com o Basco, uma língua muito especial.

Aqui está a explicação simplificada, usando analogias do dia a dia:

1. O Problema: O "Espelho" Quebrado

A maioria dos testes para ver se uma IA é preconceituosa foi feita em inglês. É como tentar medir a temperatura de um dia de inverno na Escócia usando um termômetro feito para o deserto do Saara. Não funciona bem!

  • O Basco é especial: Diferente do espanhol, do francês ou do inglês, o Basco não tem gênero gramatical. Na língua basca, não existe "ele" ou "ela" para profissões. Um "médico" é apenas "médico".
  • O Desafio: Quando você pede para a IA traduzir do Basco (neutro) para o Espanhol (que tem gênero), ela é obrigada a escolher: será que é "médico" (masculino) ou "médica" (feminino)? A pesquisa quer saber: a IA escolhe o masculino por padrão, mesmo quando a realidade diz que a maioria são mulheres?

2. As Duas Novas Ferramentas (Os "Jogos")

Os pesquisadores criaram dois novos "jogos" para testar essas IAs:

A. O Jogo "WinoMTeus" (O Espelho da Realidade)

  • A Analogia: Imagine que você tem uma lista de profissões em Basco (onde não diz se é homem ou mulher). Você pede para a IA traduzir para o Espanhol.
  • O Teste: Se a IA traduzir "enfermeiro" como "enfermeiro" (homem) 90% das vezes, mas na Basque Country (região onde se fala Basco) 96% dos enfermeiros são mulheres, a IA está mentindo sobre a realidade.
  • O Resultado: A IA foi pega no flagra. Ela tende a transformar quase todas as profissões em "homens", mesmo que na vida real sejam majoritariamente mulheres. É como se a IA achasse que o mundo é feito de homens, a menos que provem o contrário.

B. O Jogo "FLORES+Gender" (O Teste de Qualidade)

  • A Analogia: Aqui, fazemos o caminho inverso. Pegamos uma frase em Espanhol que diz "A motorista" (mulher) e outra que diz "O motorista" (homem) e pedimos para a IA traduzir para o Basco.
  • O Teste: Será que a IA traduz melhor quando a frase original fala de um homem? Será que ela erra mais ou faz uma tradução pior quando o sujeito é uma mulher?
  • O Resultado: Em alguns casos, a IA traduziu um pouco melhor quando o sujeito era homem. É como se a IA tivesse um "sabor preferido" pelo masculino, tornando a tradução mais fluida para homens e um pouco mais "travada" para mulheres.

3. O Que Eles Descobriram?

Os pesquisadores testaram várias IAs famosas (como o Google Translate, modelos da OpenAI, etc.) e descobriram:

  1. O Vício no Masculino: Quase todas as IAs têm uma preferência automática por usar a forma masculina. É o "padrão de fábrica". Mesmo quando a estatística diz que 90% dos cabeleireiros são mulheres, a IA ainda tende a usar "cabeleireiro" (homem) na tradução.
  2. A Realidade Ignorada: As IAs não estão apenas seguindo a gramática; elas estão ignorando a realidade social. Elas não "veem" que o mundo mudou.
  3. Línguas Sem Gênero Sofrem: O Basco, por não ter gênero, acaba "vítima" desse preconceito. Quando a IA traduz do Basco, ela injeta o preconceito que não existia na frase original.

4. A Conclusão (A Lição do Dia)

Este estudo é um alerta importante. Ele nos diz que não basta criar IAs inteligentes; precisamos criar IAs justas.

Se usarmos apenas testes feitos em inglês, não vamos perceber esses problemas em línguas como o Basco. É como tentar achar um defeito em um carro usando apenas um manual de outro modelo.

Resumo da Ópera:
As IAs atuais ainda são como espelhos quebrados: elas refletem os preconceitos antigos da internet, transformando mulheres em homens nas traduções e ignorando a realidade. Para consertar isso, precisamos de novos testes (como os criados neste artigo) que olhem para a cultura e a realidade local, não apenas para a gramática.

A mensagem final é: Para traduzir o mundo com justiça, precisamos ensinar as máquinas a verem as mulheres tanto quanto veem os homens.