Patterns of genAI bias in guiding prospective undergraduate students: a study of UK neuroscience programmes

Este estudo revela que ferramentas de inteligência artificial generativa apresentam vieses sistemáticos ao orientar estudantes prospectivos para programas de neurociência no Reino Unido, favorecendo candidatos com notas mais altas e origens privadas com recomendações para instituições de elite e linguagem codificada por gênero, o que corre o risco de reforçar desigualdades educacionais e socioeconômicas existentes.

Potter, H. G.

Publicado 2026-03-24
📖 5 min de leitura🧠 Leitura aprofundada
⚕️

Esta é uma explicação gerada por IA de um preprint que não foi revisado por pares. Não é aconselhamento médico. Não tome decisões de saúde com base neste conteúdo. Ler aviso legal completo

Each language version is independently generated for its own context, not a direct translation.

Imagine que você está prestes a escolher a faculdade dos seus sonhos, mas, em vez de pesquisar em livros ou conversar com conselheiros, você pergunta a um "oráculo digital" superinteligente (uma Inteligência Artificial, ou IA). Você diz: "Quero estudar Neurociência no Reino Unido". A IA responde com uma lista de 5 universidades e explica por que elas são boas. Parece perfeito, certo?

Bem, um estudo recente descobriu que esse "oráculo" não é tão neutro quanto parece. Na verdade, ele age como um espelho distorcido que reflete os preconceitos do mundo real, e pior: ele pode estar reforçando desigualdades sem que ninguém perceba.

Aqui está o resumo desse estudo, explicado de forma simples:

1. O Experimento: Testando o Espelho

O pesquisador, Harry Potter (não, não é o bruxo, mas um cientista da Universidade de Manchester), criou 216 cenários diferentes de estudantes imaginários. Ele variou coisas como:

  • Quem é: Homens, mulheres, jovens de 16-18 anos ou adultos mais velhos.
  • Onde estudou: Escola pública ou escola particular.
  • Notas: Notas baixas, médias ou excelentes.
  • O que valorizam: Pesquisa científica de ponta, qualidade do ensino ou a felicidade dos alunos.

Ele enviou todas essas perguntas para três IAs famosas (ChatGPT, Copilot e Gemini) e analisou mais de 3.200 respostas.

2. A Descoberta Principal: A IA é um "Mestre de Cerimônias" Viesado

O estudo descobriu que a IA não trata todos os alunos da mesma forma. Ela muda a "roupa" que veste para cada um, dependendo das informações que você deu a ela.

  • Se você tem notas altas e quer pesquisa: A IA usa uma linguagem mais "masculina" e agressiva (palavras como liderança, competitivo, excelência, corte). Ela te recomenda as universidades mais famosas e difíceis (as "elites"), mesmo que você não tenha pedido especificamente por isso. É como se a IA dissesse: "Você é um leão, aqui está o castelo dos leões."
  • Se você tem notas mais baixas ou prioriza o bem-estar dos alunos: A IA muda o tom. Usa uma linguagem mais "feminina" e acolhedora (palavras como suporte, colaboração, comunidade, sentir-se bem). Ela te recomenda universidades com foco em satisfação do aluno e acesso mais amplo. É como se dissesse: "Você é parte da família, aqui está o lar acolhedor."

O problema: A IA não está apenas reagindo às suas notas; ela está estereotipando. Ela associa "sucesso acadêmico e pesquisa" a características masculinas e "suporte e comunidade" a características femininas, mesmo que o aluno seja uma mulher brilhante querendo fazer pesquisa ou um homem que valorize o bem-estar.

3. O Efeito "Bola de Neve" nas Desigualdades

Aqui é que a coisa fica séria. A IA não só muda a linguagem, ela muda para onde ela manda o aluno:

  • Estudantes de escolas particulares e com notas altas: Receberam recomendações para as universidades mais exclusivas e caras (como Oxford e Cambridge), com requisitos de entrada altíssimos.
  • Estudantes de escolas públicas e com notas mais baixas: Foram direcionados para universidades com requisitos mais baixos e foco em "acesso amplo".

A analogia da Pista de Corrida:
Imagine que a IA é um treinador de corrida. Se um corredor tem um terno caro e sapatos de couro (simbolizando notas altas e escola particular), o treinador aponta para a pista VIP e diz: "Corra aqui, você é um campeão!". Se outro corredor tem tênis gastos (notas mais baixas), o treinador aponta para a pista de terra e diz: "Corra aqui, é mais fácil para você".
O problema é que o treinador (a IA) decidiu quem vai para onde baseado em estereótipos, e não necessariamente no potencial real do corredor. Isso faz com que as desigualdades sociais se perpetuem: quem já tem vantagem, ganha mais; quem já está em desvantagem, recebe menos oportunidades.

4. A Linguagem como um "Código Secreto"

O estudo mostrou que a linguagem usada pela IA é um código.

  • Código "Masculino" (Competitivo, Rígido): Está ligado a universidades com pesquisa de ponta, mas com menos satisfação dos alunos.
  • Código "Feminino" (Acolhedor, Suave): Está ligado a universidades com alta satisfação dos alunos, mas com menos prestígio em pesquisa.

Isso cria um ciclo vicioso: a IA diz a você que você é "competitivo" e te manda para um lugar difícil, ou diz que você é "acolhedor" e te manda para um lugar "seguro", limitando suas escolhas reais.

5. Conclusão: Precisamos de um "Filtro de Realidade"

O estudo conclui que, embora a IA seja uma ferramenta incrível para organizar informações, ela não é neutra. Ela aprendeu com os dados do mundo real, que são cheios de preconceitos de gênero, classe e raça.

O que isso significa para nós?

  • Para estudantes: Não confie cegamente na primeira resposta da IA. Use-a como um ponto de partida, mas pesquise por conta própria.
  • Para as universidades e governos: Precisamos criar regras para que essas IAs sejam mais justas e transparentes. Elas não podem ser apenas "caixas pretas" que decidem o futuro dos jovens baseadas em estereótipos.

Em resumo, a IA é como um GPS que, às vezes, decide desviar você de uma estrada rápida porque acha que você "não aguenta" ou porque acha que você "merece" uma estrada de terra, tudo baseado em como você se apresentou no início da viagem. O estudo nos alerta para não deixar o GPS dirigir nossa vida sem supervisionarmos o mapa.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →