Gender Bias in Generative AI-assisted Recruitment Processes

Este estudo avalia o viés de gênero em processos de recrutamento assistidos por IA generativa (GPT-5) no contexto de graduados italianos, revelando que, embora as sugestões de cargos sejam neutras, o modelo perpetua estereótipos ao atribuir adjetivos emocionais e empáticos às mulheres e características estratégicas e analíticas aos homens.

Martina Ullasci, Marco Rondina, Riccardo Coppola, Antonio Vetrò

Publicado 2026-03-13
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um robô chef de cozinha muito inteligente, chamado GPT-5. Ele foi treinado lendo milhões de livros, receitas e histórias do mundo todo. Agora, imagine que você pede a esse robô para ajudar a escolher quem vai trabalhar na sua cozinha.

Este estudo é como um teste de "cega" que os pesquisadores fizeram para ver se esse robô tem preconceito (vieses) de gênero, mesmo sem querer. Eles queriam saber: se o robô vê um homem e uma mulher com a mesma experiência, ele vai sugerir o mesmo tipo de trabalho para os dois?

Aqui está a explicação do que eles descobriram, usando uma linguagem simples:

1. O Experimento: 24 Candidatos Imaginários

Os pesquisadores criaram 24 perfis de pessoas jovens (menos de 35 anos), todas formadas na Itália. Metade era de mulheres e metade de homens. Eles eram "gêmeos" em termos de experiência: alguns eram juniores (iniciantes) e outros seniores (experientes), e todos tinham habilidades parecidas.

Eles pediram ao robô: "Olhe para este perfil e diga: qual é o emprego ideal? Em que setor? E use 3 adjetivos para descrever essa pessoa."

2. O Que o Robô Disse (Os Resultados)

Aqui é onde a coisa fica interessante, como se o robô estivesse seguindo um roteiro antigo e preconceituoso:

  • O Emprego e o Setor (A "Vitrine"):
    Quando olharam apenas para o título do emprego (ex: "Gerente de Vendas" vs. "Analista de Dados") e o setor (ex: Tecnologia vs. Recursos Humanos), o robô foi justo. Ele não disse: "Homens só podem trabalhar em fábricas e mulheres só em escritórios". A distribuição foi mais ou menos equilibrada.

    • Analogia: É como se o robô não tivesse mudado a cor da porta da sala de trabalho para homens ou mulheres.
  • Os Adjetivos (O "Rótulo" Interno):
    Mas, quando o robô teve que descrever a pessoa com palavras, a mágica (ou o problema) aconteceu. O robô começou a usar "etiquetas" diferentes baseadas no gênero:

    • Para as Mulheres: O robô usou palavras como "empática", "acolhedora", "suporte" e "emocional".
      • Analogia: É como se o robô dissesse: "Ah, você é mulher? Você deve ser o coração da equipe, aquela que cuida dos sentimentos e resolve brigas com um abraço."
    • Para os Homens: O robô usou palavras como "líder", "influente", "determinado", "analítico" e "estratégico".
      • Analogia: É como se o robô dissesse: "Ah, você é homem? Você deve ser o cérebro e o capitão do navio, aquele que toma decisões frias e lida com números."

3. A Conclusão: O Espelho Quebrado

O estudo descobriu que o robô não está inventando esses preconceitos do nada. Ele aprendeu olhando para o mundo real. Como a nossa sociedade historicamente associa mulheres a tarefas de cuidado e homens a tarefas de liderança, o robô "aprendeu" isso nos livros e dados que leu.

O Perigo:
Se usarmos esse robô para contratar pessoas, ele pode não mudar o nome do cargo, mas pode mudar a percepção do candidato.

  • Se um recrutador humano ler que uma candidata é "empática", pode achá-la perfeita para um cargo de RH, mas subestimar sua capacidade de liderança.
  • Se ler que um candidato é "analítico", pode achá-lo perfeito para gerência, ignorando que ele também precisa de habilidades sociais.

Resumo Final

O robô GPT-5, neste teste, agiu como um espelho quebrado da nossa sociedade. Ele não quebrou as regras de "quem pode trabalhar onde" (os cargos foram justos), mas quebrou a regra de "como descrevemos as pessoas".

Ele reforçou o estereótipo de que mulheres são para cuidar e homens são para liderar.

O que os autores dizem?
Eles alertam que, embora a tecnologia seja rápida e eficiente, usá-la em processos sensíveis como contratações é perigoso se não tivermos cuidado. Precisamos ter transparência e questionar: será que queremos que um computador decida o futuro de alguém baseado em velhas ideias de como homens e mulheres "devem" ser? A solução não é apenas criar regras, mas pensar se devemos usar essas ferramentas em lugares onde a justiça é tão importante.