Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality

Este estudo demonstra que as percepções humanas de justiça em sistemas de IA são moldadas não apenas pelos resultados, mas também pelas crenças sobre as causas das disparidades, como a infra-marginalidade, indicando que métricas de justiça algorítmica devem considerar o contexto distribucional para alinhar-se às expectativas humanas.

Schrasing Tong, Minseok Jung, Ilaria Liccardi, Lalana Kagal

Publicado Mon, 09 Ma
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é o juiz de uma competição de culinária. Você tem dois chefs: o Chef A e o Chef B.

O objetivo é ver quem faz o melhor prato. Mas aqui está o problema: o Chef A trabalha numa cozinha gigante, cheia de ingredientes frescos e ferramentas modernas. O Chef B trabalha numa cozinha pequena, com poucos ingredientes e panelas velhas.

Agora, imagine que você precisa decidir quem ganhou. A maioria das pessoas diria: "Ah, o Chef A tem mais chances porque tem mais recursos!". Mas e se o sistema de justiça (ou o algoritmo de IA) dissesse: "Não importa a cozinha, vocês dois têm que ter a mesma pontuação final, ou então é injusto"?

Isso é basicamente o que este artigo de pesquisa da MIT (Instituto de Tecnologia de Massachusetts) discute, mas com um nome complicado: Infra-marginalidade.

Vamos traduzir isso para a vida real, usando analogias simples.

1. O Problema: "Igualdade Cega" vs. "Realidade"

Na inteligência artificial (IA), os cientistas criam regras para garantir que os computadores não sejam preconceituosos. A regra mais comum é a Paridade Estatística: "Se o computador erra 10 vezes com o Grupo X, ele não pode errar mais do que 10 vezes com o Grupo Y".

Parece justo, certo? Todo mundo quer que o erro seja igual.

Mas o artigo diz que isso pode ser uma armadilha.

A "infra-marginalidade" é como se fosse o terreno de corrida.

  • Se o Grupo A corre numa pista de asfalto liso (dados abundantes e fáceis) e o Grupo B corre numa pista de lama (dados escassos ou difíceis), é impossível que eles tenham o mesmo tempo de corrida, mesmo que o carro (o algoritmo) seja o mesmo.
  • Se você forçar o carro a dar o mesmo tempo para os dois, você pode estar punindo o Grupo B (que está na lama) ou favorecendo injustamente o Grupo A.

2. O Experimento: A Consulta Médica

Os pesquisadores fizeram um estudo com 85 pessoas. Eles criaram um cenário imaginário: um hospital usando uma IA para detectar câncer em duas raças diferentes (Vamos chamar de Raça A e Raça B).

Eles mostraram às pessoas três cenários diferentes e perguntaram: "Qual sistema é mais justo?"

  • Cenário 1 (Sem informações): As pessoas não sabiam se os grupos eram diferentes.
    • Resultado: As pessoas queriam que a IA errasse a mesma quantidade para os dois. "Igualdade total!"
  • Cenário 2 (Com informações): As pessoas sabiam que a Raça A tinha dados muito melhores e era mais fácil de diagnosticar, enquanto a Raça B tinha dados ruins e era mais difícil.
    • Resultado: As pessoas mudaram de ideia! Elas acharam mais justo se a IA mantivesse a diferença de desempenho. Ou seja, se a Raça A fosse diagnosticada com 90% de precisão e a Raça B com 80% (porque era mais difícil), as pessoas acharam justo que a IA respeitasse essa diferença.

3. A Grande Descoberta: O "Porquê" Importa Mais que o "O Quê"

Aqui está a parte mais importante, explicada com uma metáfora de jardins:

Imagine dois jardineiros.

  • Jardineiro 1 tem terra fértil, muita água e sol.
  • Jardineiro 2 tem terra seca e pouca água.

Se o Jardineiro 1 planta flores e elas crescem lindas, e o Jardineiro 2 planta e elas murcham, quem é o culpado?

  • Se você disser: "O Jardineiro 2 é ruim", você está ignorando a terra seca.
  • Se você disser: "Vamos forçar o Jardineiro 2 a ter flores lindas como o 1, mesmo sem água", você está criando uma expectativa impossível.

O estudo mostrou que as pessoas entendem isso intuitivamente:

  1. Se a diferença vem da "terra" (dados reais, dificuldade do problema): As pessoas acham justo que o resultado seja diferente. Elas entendem que é impossível ter a mesma precisão em situações desiguais.
  2. Se a diferença vem do "jardineiro" (viés, preconceito, coleta de dados ruim): As pessoas acham injusto.

4. Por que isso importa para você?

Hoje, algoritmos decidem quem consegue um empréstimo, quem é contratado para um emprego ou quem vai para a prisão.

Os cientistas de dados muitas vezes tentam "forçar" a igualdade estatística (fazer com que o erro seja igual para todos). Mas este artigo diz: Cuidado!

Se você forçar a igualdade em um mundo onde as realidades são diferentes (como a diferença de riqueza, educação ou acesso a saúde), você pode acabar criando uma injustiça maior.

  • Exemplo real: Se um sistema de justiça criminal ignora que um grupo tem menos histórico de crimes registrados (porque a polícia nunca foi naquela região) e força o mesmo nível de "risco" para todos, ele pode prender inocentes apenas para "igualar os números".

Resumo em uma frase

A verdadeira justiça não é fazer com que todos tenham o mesmo resultado (como se todos corressem na mesma pista), mas sim entender por que os resultados são diferentes e garantir que a IA não esteja punindo alguém por causa de uma desvantagem que não é culpa dele.

As pessoas querem que a IA seja inteligente o suficiente para entender o contexto, não apenas uma calculadora que iguala números cegamente.