Patterns of genAI bias in guiding prospective undergraduate students: a study of UK neuroscience programmes

Este estudio revela que los chatbots de inteligencia artificial generativa exhiben sesgos sistemáticos al guiar a los estudiantes británicos hacia programas de neurociencia, donde las recomendaciones y el lenguaje utilizado favorecen desproporcionadamente a candidatos con mejores notas y escuelas privadas hacia instituciones de élite, reforzando así las desigualdades educativas y socioeconómicas existentes.

Potter, H. G.

Publicado 2026-03-24
📖 5 min de lectura🧠 Análisis profundo
⚕️

Esta es una explicación generada por IA de un preprint que no ha sido revisado por pares. No es consejo médico. No tome decisiones de salud basándose en este contenido. Leer descargo de responsabilidad completo

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un oráculo digital muy inteligente, capaz de responder cualquier pregunta. Hoy en día, millones de estudiantes en el Reino Unido usan a estos oráculos (llamados Inteligencia Artificial Generativa o genAI, como ChatGPT, Copilot y Gemini) para pedirles ayuda: "¿Dónde debería estudiar Neurociencia?".

Este estudio es como una investigación forense que le puso una lupa a tres de estos oráculos para ver si, al dar consejos, estaban siendo justos o si, en realidad, tenían "gafas de color" que distorsionaban la realidad.

Aquí tienes la historia de lo que descubrieron, explicada de forma sencilla:

1. La Prueba: El "Simulacro de Vida Real"

El investigador creó 216 personajes ficticios (estudiantes) con diferentes historias:

  • Algunos eran chicos, otras chicas.
  • Algunos iban a la escuela pública, otros a colegios privados.
  • Algunos tenían notas excelentes (A*), otros notas medias (BBC).
  • A unos les importaba más la investigación científica, a otros la calidad de las clases.

Le pidió a cada uno de estos personajes que le preguntara a los tres oráculos: "¿Cuáles son las 5 mejores universidades para Neurociencia?".
Resultado: Obtuvieron 3.240 respuestas diferentes. ¡Es como si hubieran hecho 3.240 pruebas de ciego!

2. El Hallazgo: La IA no es un espejo, es un filtro

Lo más sorprendente fue que la IA no trataba a todos por igual. Dependía de quién hiciera la pregunta, el consejo cambiaba drásticamente, como si la IA tuviera un "prejuicio automático".

A. Las notas lo son todo (y la IA lo sabe)

Si un estudiante tenía notas altas, la IA le hablaba con un tono más "masculino" y ambicioso. Usaba palabras como "líder", "competitivo", "excelencia". Le recomendaba universidades de élite, muy difíciles de entrar, donde la investigación es lo más importante.

  • La analogía: Es como si la IA le dijera al estudiante con notas altas: "Tú eres un atleta olímpico, ve a entrenar en el estadio más grande y difícil".

En cambio, si el estudiante tenía notas más bajas, la IA cambiaba de tono. Le hablaba con palabras más "femeninas" y de apoyo, como "ayuda", "colaboración", "acceso". Le recomendaba universidades que se enfocan en la satisfacción del alumno y en abrir puertas a más gente.

  • La analogía: Le decía al estudiante con notas medias: "Tú eres parte de una comunidad, busca un lugar donde te sientas cuidado y feliz".

El problema: Esto pasa incluso si el estudiante es mujer. Si una chica tenía notas altas y le gustaba la investigación, la IA le hablaba con un tono "masculino" y ambicioso. La IA juzga por las notas y las prioridades, no por el género real de la persona.

B. El círculo vicioso de la desigualdad

Aquí es donde la cosa se pone seria.

  • Los estudiantes de escuelas privadas y con notas altas recibían recomendaciones de universidades más exclusivas y difíciles.
  • La IA parecía asumir que, si tienes dinero o notas altas, debes ir a un lugar de élite.
  • Si eres de una escuela pública o tienes notas más bajas, la IA te empuja hacia lugares con menos prestigio académico, aunque quizás sean buenos para ti.

La metáfora: Imagina que la IA es un buzón de cartas. Si la carta tiene un sello de oro (notas altas), el cartero la mete en un buzón de lujo con mensajería express. Si la carta tiene un sello normal, la mete en un buzón estándar. El problema es que el buzón de lujo te lleva a un destino donde hay más oportunidades, y el estándar te deja en uno con menos. La IA está reproduciendo las desigualdades que ya existen en la sociedad.

3. El lenguaje es una pista

El estudio descubrió que el tono de la respuesta (si usaba palabras "fuertes" o "suaves") era una señal de alerta.

  • Respuestas "Masculinas" (ambiciosas): Siempre apuntaban a universidades con investigaciones de primer nivel, pero con estudiantes menos satisfechos (porque son muy exigentes).
  • Respuestas "Femeninas" (de apoyo): Siempre apuntaban a universidades donde los estudiantes estaban más felices, pero con menos prestigio en investigación.

La IA estaba, sin querer, asignando roles: "A los ambiciosos les damos el reto duro; a los que buscan comunidad les damos el apoyo".

4. ¿Por qué importa esto?

Imagina que eres un estudiante joven buscando su futuro. Si confías ciegamente en la IA, esta podría decirte: "No vayas a esa universidad de élite, no es para ti" (aunque quizás sí lo sea), o "Ve a esa otra, es más fácil".

La IA está actuando como un profesor invisible con prejuicios. En lugar de abrir puertas, podría estar cerrándolas para ciertos grupos de personas, reforzando que solo los ricos o los que ya tienen notas perfectas pueden acceder a la "mejor" educación.

En resumen

Este estudio nos dice que la Inteligencia Artificial no es neutral. Aunque parezca un robot frío, en realidad ha aprendido de nuestra sociedad y ha copiado sus sesgos.

  • Si tienes notas altas, te ve como un "líder" y te manda a la cima.
  • Si tienes notas medias, te ve como alguien que necesita "apoyo" y te manda a un lugar más seguro.

La lección: La IA es una herramienta útil, como un mapa, pero si el mapa tiene dibujos erróneos, te puedes perder. Necesitamos vigilar estos mapas (regulaciones y transparencia) para asegurarnos de que todos los estudiantes, independientemente de su origen o notas, tengan las mismas oportunidades de encontrar su camino hacia el futuro.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →