Fairness May Backfire: When Leveling-Down Occurs in Fair Machine Learning

Este artigo demonstra que, embora a aplicação de restrições de justiça em modelos de aprendizado de máquina que utilizam atributos sensíveis sempre melhore (ou não altere) os resultados do grupo desfavorecido, a imposição de justiça em regimes que ignoram esses atributos pode levar a um "nivelamento por baixo", prejudicando ambos os grupos dependendo da distribuição dos dados.

Yi Yang, Xiangyu Chang, Pei-yu Chen

Publicado Tue, 10 Ma
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é o gerente de um grande banco de talentos ou de empréstimos. Você tem um algoritmo (um "robô" inteligente) que ajuda a decidir quem recebe um empréstimo ou quem é contratado para um emprego. O objetivo é ser justo, certo?

Mas a pergunta que este artigo faz é: Será que tentar ser justo sempre melhora a vida das pessoas que mais precisam, ou pode, sem querer, piorar a situação de todos?

Os autores chamam esse fenômeno de "Nivelamento por Baixo" (Leveling Down). É como se, para garantir que ninguém ganhasse muito, o robô decidisse cortar os benefícios de todos, deixando até os mais merecedores em uma situação pior.

O artigo explora como isso acontece dependendo de uma regra muito importante: O robô sabe ou não sabe a "identidade" (raça, gênero, etc.) das pessoas?

Vamos dividir a explicação em dois cenários, usando analogias simples:

Cenário 1: O Robô "Vidente" (Sabe a Identidade)

Situação: O robô pode ver a raça ou o gênero da pessoa antes de tomar a decisão. (Isso é permitido em alguns lugares, como em diagnósticos médicos onde a biologia importa).

  • A Analogia: Imagine que o robô tem duas filas separadas: uma para o "Grupo A" e outra para o "Grupo B". O Grupo A sempre foi favorecido pelo sistema antigo.
  • O que acontece quando tentamos ser justos?
    O robô ajusta as regras de cada fila separadamente.
    • Para o Grupo A (o favorecido), ele levanta a barra de entrada. Agora, é mais difícil entrar.
    • Para o Grupo B (o desfavorecido), ele abaixa a barra. Agora, é mais fácil entrar.
  • O Resultado:
    • O Grupo B ganha mais oportunidades (o que era o objetivo).
    • O Grupo A perde um pouco de acesso (o que é esperado para corrigir a injustiça).
    • Conclusão: Ninguém sai perdendo absolutamente em relação ao outro grupo de forma catastrófica. O Grupo B sobe, o Grupo A desce um pouco. É um "nivelamento" que funciona como esperado.

Cenário 2: O Robô "Cego" (Não Sabe a Identidade)

Situação: Por lei (como em muitos bancos e empregos), o robô não pode ver a raça ou o gênero. Ele só vê o currículo, o histórico de crédito, etc. (Isso é chamado de "Cegueira de Atributo").

  • A Analogia: Agora, o robô tem apenas uma única fila gigante. Ele não sabe quem é de qual grupo. Ele só vê as características da pessoa (ex: "tem um bom histórico de pagamentos").

  • O Problema Oculto:
    Aqui entra o conceito de "Candidatos Mascaramentados".
    Imagine que o Grupo B tem muitas pessoas muito qualificadas que, por acaso, têm um histórico de crédito um pouco diferente do padrão do Grupo A. Como o robô não sabe que elas são do Grupo B, ele as trata apenas pelo que vê no papel.
    Para ser justo, o robô precisa ajustar a "barra" de entrada baseada em padrões estatísticos. Mas, como ele não vê a identidade, ele pode acabar:

    1. Rejeitando pessoas do Grupo A que eram boas, mas que se parecem com o padrão do Grupo B.
    2. Aceitando pessoas do Grupo B que eram boas, mas que se parecem com o padrão do Grupo A.
      Ou o contrário!
  • O Resultado Surpreendente (O "Nivelamento por Baixo"):
    Dependendo de como os dados estão misturados, tentar ser justo pode levar a dois resultados estranhos:

    • Cenário A (Pior para todos): O robô, tentando corrigir o desequilíbrio, levanta a barra para todos. Resultado: O Grupo A perde oportunidades e o Grupo B também perde oportunidades. Ninguém ganha, todos saem perdendo. Isso é o Nivelamento por Baixo.
    • Cenário B (Melhor para todos): O robô abaixa a barra para todos. Ambos os grupos ganham mais oportunidades. Isso é o Nivelamento por Cima.

A Lição Principal

O artigo nos ensina que:

  1. Saber a identidade ajuda a ser justo de forma previsível: Se o robô pode ver quem é quem, ele pode garantir que o grupo desfavorecido ganhe e o grupo favorecido perca um pouco, sem prejudicar ninguém de forma inesperada.
  2. A "cegueira" pode ser perigosa: Quando tentamos ser justos sem ver a identidade (o que é comum por lei), o resultado depende totalmente de como os dados estão misturados.
    • Se os dados estiverem "embaralhados" de um jeito específico, a justiça pode acabar piorando a vida do grupo que queríamos ajudar, ao mesmo tempo que prejudica o outro grupo.
    • É como tentar equilibrar uma balança olhando apenas para o peso dos objetos, sem saber de quem eles são. Você pode acabar jogando objetos fora de ambos os lados para tentar equilibrar, deixando a balança vazia.

Resumo Final:
Tentar ser justo é sempre bom, mas a forma como fazemos isso importa muito. Se ignorarmos a identidade das pessoas (cegueira), podemos acabar criando um sistema onde, para garantir a igualdade estatística, acabamos prejudicando a todos, em vez de ajudar os que precisam. A justiça algorítmica não é mágica; ela precisa ser desenhada com cuidado para evitar o "Nivelamento por Baixo".