Each language version is independently generated for its own context, not a direct translation.
Imagine que a Inteligência Artificial (IA) que processa linguagem, como os chatbots e tradutores que usamos hoje, é como um grande cozinheiro que aprendeu a cozinhar lendo milhões de livros, posts de redes sociais e artigos da internet.
O problema é que esse cozinheiro aprendeu com uma "biblioteca" que, historicamente, ignorou ou distorceu a realidade de pessoas LGBTQIA+. O resultado? Quando você pede para esse cozinheiro fazer um prato (gerar um texto), ele muitas vezes serve algo com "veneno" (preconceito), esquece ingredientes importantes (identidades não-binárias) ou usa temperos que ofendem quem está comendo.
Este artigo, escrito por um grupo diversificado de pesquisadores (muitos deles da comunidade LGBTQIA+), é como um relatório de inspeção sanitária dessa cozinha. Eles revisaram 86 estudos acadêmicos para entender o que está acontecendo, o que falta e como consertar a panela.
Aqui está o resumo do que eles descobriram, usando analogias simples:
1. O Cozinheiro está "Reagindo", não "Agindo"
A maioria dos estudos atuais é como um bombeiro que só chega depois do incêndio.
- O que fazem: Eles apontam onde o preconceito está (ex: "Olha, o modelo chama pessoas trans de erradas!").
- O que não fazem: Eles raramente criam soluções novas ou cozinham pratos novos desde o início que já sejam inclusivos. É mais fácil apontar o erro do que consertar a receita inteira.
2. O Menu é Muito Limitado (Foco no Inglês)
A grande maioria das receitas que estão sendo testadas é feita apenas em inglês.
- A analogia: Imagine que você está tentando ensinar um cozinheiro a fazer pratos de todo o mundo, mas você só lhe dá livros de receitas em inglês.
- O resultado: O cozinheiro sabe fazer muito bem "hambúrguer" (inglês), mas quando você pede "feijoada" (português) ou "tacos" (espanhol), ele não sabe o que fazer ou faz uma versão estranha e ofensiva. O artigo mostra que quase 77% dos estudos são sobre inglês, deixando de lado a riqueza de outras culturas e línguas.
3. Falta de Ingredientes Reais (Ausência de Stakeholders)
Muitos pesquisadores tentam adivinhar o que a comunidade LGBTQIA+ precisa, mas não perguntam a ela.
- A analogia: É como um chef tentando criar um prato para vegetarianos sem nunca ter conversado com um vegetariano. Ele usa "ingredientes sintéticos" (dados gerados por computador) em vez de ingredientes reais.
- O problema: Eles usam listas de palavras para tentar simular a experiência, mas isso não captura a dor real ou a alegria da comunidade. Poucos estudos realmente convidaram pessoas da comunidade para ajudar a criar ou testar as ferramentas.
4. O "Espelho Quebrado" (Interseccionalidade)
A IA muitas vezes vê as pessoas de forma muito simples: "homem" ou "mulher", "hetero" ou "gay".
- A analogia: Imagine um espelho que só reflete pessoas brancas, ricas e de uma única cultura. Se você é uma pessoa negra, trans e de uma cultura diferente, o espelho não te vê direito.
- O que falta: Os estudos raramente olham para como várias identidades se cruzam (raça + gênero + classe). Eles tratam a experiência LGBTQIA+ como se fosse igual para todo mundo, o que não é verdade.
5. Onde está a solução? (O Caminho a Seguir)
Os autores não estão apenas criticando; eles estão dando um mapa do tesouro para o futuro:
- Convide os donos da casa: Em vez de apenas testar o software, a comunidade LGBTQIA+ deve ser convidada a ajudar a construir a cozinha desde o início.
- Abra a janela para o mundo: Precisamos de mais estudos em português, espanhol, hindi e outras línguas, não apenas em inglês.
- Aceite a complexidade: A identidade humana é fluida (muda como a água), mas a IA gosta de caixas rígidas (como blocos de Lego). Precisamos criar sistemas que aceitem que as pessoas podem não se encaixar em caixas fixas.
- O direito de dizer "Não": Às vezes, a melhor proteção para uma pessoa não é ser incluída em um sistema que a classifica mal, mas ter o direito de recusar ser categorizada. A IA atual não entende bem esse conceito de "recusa".
Conclusão
Este artigo é um chamado à ação. Ele diz que a tecnologia de linguagem está mudando o mundo, e se não corrigirmos esses preconceitos agora, vamos perpetuar a exclusão de forma automatizada.
A mensagem final é: Não basta apenas consertar os erros depois que eles acontecem. Precisamos mudar a maneira como construímos essas tecnologias, colocando as pessoas marginalizadas no centro do processo, não como vítimas a serem estudadas, mas como parceiras essenciais para criar um futuro mais justo e inclusivo.