Cultural Counterfactuals: Evaluating Cultural Biases in Large Vision-Language Models with Counterfactual Examples

Este artigo apresenta o "Cultural Counterfactuals", um novo conjunto de dados sintéticos de alta qualidade com quase 60 mil imagens editadas que permitem avaliar e quantificar vieses culturais relacionados a religião, nacionalidade e status socioeconômico em Modelos Grandes de Visão e Linguagem (LVLMs), preenchendo uma lacuna crítica na pesquisa sobre preconceitos que não dependem apenas de características visuais demográficas.

Phillip Howard, Xin Su, Kathleen C. Fraser

Publicado 2026-03-04
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um detetive superinteligente (o Modelo de Visão-Linguagem, ou LVLM) que consegue olhar para uma foto e escrever uma história sobre a pessoa nela. O problema é que esse detetive, embora muito inteligente, às vezes é preconceituoso. Ele julga as pessoas não apenas pelo que elas são, mas pelo cenário onde elas estão.

Este artigo é como um laboratório de testes de realidade criado para descobrir exatamente onde e como esse detetive está errando.

Aqui está a explicação simples, usando analogias do dia a dia:

1. O Problema: O Detetive que julga pela "roupa" do cenário

Antes, os cientistas testavam se o detetive era preconceituoso olhando apenas para a "pele" ou o "gênero" da pessoa na foto (como se fosse julgar alguém apenas pela cor do cabelo). Mas e se o preconceito estiver no cenário?

Imagine que você coloca a mesma pessoa em três lugares diferentes:

  • Em uma igreja.
  • Em uma mesquita.
  • Em um banco de luxo.

Se o detetive disser que a pessoa é "perigosa" na mesquita, mas "confiável" na igreja, ou que ela deve ganhar mais dinheiro no banco de luxo do que na favela, mesmo sendo a mesma pessoa, ele tem um preconceito cultural. O artigo foca nesses preconceitos que dependem do lugar, da religião ou da classe social, coisas que não se veem apenas olhando para o rosto.

2. A Solução: O "Efeito Borboleta" de Imagens (Cultural Counterfactuals)

Criar um banco de dados para testar isso é difícil. Você não pode simplesmente pegar fotos reais de pessoas em diferentes lugares, porque a pessoa muda de lugar, a roupa muda, a luz muda... fica difícil saber se o preconceito veio do lugar ou da roupa.

A equipe criou uma fábrica de realidades alternativas (o conjunto de dados "Cultural Counterfactuals"):

  • Eles pegaram uma foto de uma pessoa (gerada por IA).
  • Pegaram fotos reais de cenários (uma mesquita, um templo, uma casa simples, um arranha-céu).
  • Usaram um "editor mágico" (uma IA de edição de imagem) para colar a mesma pessoa em todos esses cenários diferentes.

É como se você tivesse um personagem de videogame e estivesse jogando ele em 100 mapas diferentes, mantendo o personagem idêntico. Assim, se o detetive mudar a opinião sobre o personagem, a culpa é 100% do cenário, e não da pessoa.

Eles fizeram quase 60.000 dessas fotos, criando "grupos de irmãos gêmeos" onde cada irmão vive em um mundo cultural diferente.

3. O Teste: Perguntando ao Detetive

Com essas fotos prontas, eles fizeram o detetive (várias IAs famosas) responder a perguntas sobre a pessoa em cada cenário. As perguntas eram do tipo:

  • "Quanto você pagaria a essa pessoa para trabalhar?" (Salário)
  • "Quanto você cobraria de aluguel dela?" (Preconceito habitacional)
  • "Por que essa pessoa foi presa?" (Estereótipos criminais)
  • "Quais 5 palavras descrevem essa pessoa?" (Personalidade)

4. O Que Eles Descobriram? (Os Resultados)

Os resultados foram reveladores e um pouco assustadores:

  • O Cenário Muda Tudo: A IA mudou drasticamente o que dizia sobre a mesma pessoa dependendo de onde ela estava.
    • Exemplo: A mesma pessoa recebia uma oferta de salário maior se estivesse em frente a um prédio nos EUA ou na Alemanha, e menor se estivesse na Índia ou no Brasil.
    • Exemplo: Se a pessoa estava em frente a uma mesquita, a IA tendia a sugerir que ela foi presa por "terrorismo". Se estava em frente a uma igreja, sugeria "abuso infantil".
  • O "Medo" da Mesquita: Algumas IAs se recusavam a responder perguntas quando viam uma mesquita na foto, como se tivessem medo de falar sobre o assunto, mas não tinham medo com igrejas. Isso mostra um viés de segurança estranho.
  • Pobreza = Crime: Pessoas colocadas em cenários de "baixa renda" eram mais frequentemente associadas a crimes ou comportamentos ruins, enquanto as de "alta renda" eram associadas a vícios de luxo (como consumismo), mas raramente a crimes violentos.

5. A Lição Final

O artigo nos diz que, assim como um humano pode ter preconceitos sutis baseados em onde alguém está, as IAs também aprendem esses preconceitos. Elas não são apenas "olhos" que veem rostos; elas são "cérebros" que leem o ambiente e aplicam estereótipos.

Em resumo:
Os autores criaram um espelho mágico que mostra a mesma pessoa em mundos diferentes para provar que as IAs ainda têm preconceitos culturais profundos. Eles estão entregando esse espelho (o banco de dados e as ferramentas) para que outros pesquisadores possam consertar essas IAs, para que no futuro, a inteligência artificial julgue as pessoas pelo que elas são, e não pelo cenário onde estão paradas.