Investigating Disability Representations in Text-to-Image Models

Este estudo investiga as representações de pessoas com deficiência em modelos de geração de imagens por texto, como o Stable Diffusion XL e o DALL-E 3, revelando desequilíbrios persistentes e destacando a necessidade de avaliação contínua e refinamento para promover retratos mais diversos e inclusivos.

Yang Tian, Yu Fan, Liudmila Zavolokina, Sarah Ebling

Publicado 2026-03-03
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você pediu a um artista digital superinteligente, mas um pouco preconceituoso, para desenhar "uma pessoa com deficiência". O que ele desenharia?

Este estudo é como uma investigação policial que foi atrás de dois desses "artistas digitais" (chamados Stable Diffusion XL e DALL·E 3) para ver como eles retratam pessoas com deficiência. Os pesquisadores queriam saber: será que esses robôs têm um estereótipo fixo na cabeça? E será que tentar "corrigir" o robô muda a forma como ele vê o mundo?

Aqui está o resumo da investigação, explicado de forma simples:

1. O "Rótulo" Padrão: A Cadeira de Rodas

Quando os pesquisadores pediram genericamente "uma pessoa com deficiência", os dois robôs quase que imediatamente desenharam alguém em uma cadeira de rodas.

  • A Analogia: É como se você pedisse a um amigo para desenhar "um animal de estimação" e ele desenhasse apenas um cachorro, ignorando completamente gatos, pássaros ou peixes.
  • O que descobrimos: Para os robôs, "deficiência" é sinônimo de "problema de mobilidade". Eles ignoraram quase totalmente outras deficiências, como cegueira ou surdez. O modelo mais "livre" (Stable Diffusion) foi ainda mais teimoso nessa ideia do que o modelo mais "controlado" (DALL·E 3).

2. A Batalha dos "Filtros": O Robô Selvagem vs. O Robô Educado

Os dois robôs funcionam de maneiras diferentes:

  • Stable Diffusion (O Selvagem): Foi treinado com uma montanha de fotos da internet sem muita filtragem. Ele é mais "bruto" e reflete os preconceitos que existem na internet.
  • DALL·E 3 (O Educado): Foi treinado com filtros rigorosos e regras de segurança para evitar conteúdo ofensivo. Os criadores tentaram "educar" esse robô para ser mais inclusivo.

O Resultado Surpreendente:
Quando os pesquisadores pediram para desenhar pessoas com doenças mentais (como depressão ou ansiedade), algo estranho aconteceu:

  • O Robô Educado (DALL·E 3) criou imagens que pareciam mais tristes, sombrias e isoladas. Ele colocou as pessoas em quartos escuros, com expressões de angústia.
  • O Robô Selvagem (Stable Diffusion) foi um pouco menos dramático, mas ainda assim negativo.

A Metáfora do "Excesso de Correção":
Parece que, ao tentar evitar estereótipos ruins, o robô "educado" ficou tão preocupado em mostrar que a doença mental é séria que exagerou na dose. Ele criou uma "atmosfera de filme de terror" para doenças mentais, enquanto para deficiências físicas (como cegueira), ele desenhava pessoas felizes e sorrindo em dias de sol.

  • Conclusão: Tentar corrigir o robô pode, às vezes, criar novos estereótipos. O robô "educado" acabou sendo mais cruel na forma como retratou a saúde mental, separando-a drasticamente da realidade física.

3. O Olho do Computador vs. O Olho Humano

Os pesquisadores usaram duas formas de julgar as imagens:

  1. O Computador (IA): Analisou as cores e rostos e disse: "Nenhuma dessas imagens parece triste".
  2. Os Humanos: Olharam para as mesmas imagens e disseram: "Essa imagem do robô educado parece muito triste e assustadora".

A Lição: O computador olha apenas para o que está na superfície (o rosto, a cor). Os humanos olham para o "clima" da foto (a luz, o fundo, a postura). Às vezes, uma pessoa sorrindo em um quarto escuro e solitário ainda transmite uma sensação de tristeza profunda, algo que o computador não percebeu, mas os humanos sentiram.

4. O Que Isso Significa para o Futuro?

O estudo nos ensina três coisas importantes:

  1. A Deficiência é Diversa: Os robôs ainda acham que deficiência é apenas cadeira de rodas. Precisamos ensiná-los que existem muitas outras formas de ser.
  2. Cuidado com as "Correções": Quando tentamos consertar um robô para não ser preconceituoso, ele pode acabar criando novos preconceitos (como retratar doenças mentais apenas como algo sombrio e trágico).
  3. Precisamos de Pessoas Reais: Não podemos confiar apenas em softwares para julgar se uma imagem é boa ou ruim. Precisamos ouvir pessoas com deficiência reais para saber se essas imagens são respeitosas ou não.

Em resumo: A tecnologia está ficando incrível em criar imagens, mas ela ainda carrega os "vícios" da sociedade e das pessoas que a criaram. Para que o futuro seja justo, precisamos garantir que essas máquinas não apenas "vejam" a diversidade, mas também a "sintam" corretamente, sem estereótipos ou dramas exagerados.