A Systematic Analysis of Biases in Large Language Models

Este estudio analiza sistemáticamente los sesgos políticos, ideológicos, de alianzas, lingüísticos y de género en cuatro modelos de lenguaje grandes ampliamente utilizados, revelando que, a pesar de estar alineados para ser neutrales, estos modelos aún exhiben diversas inclinaciones y prejuicios.

Xulang Zhang, Rui Mao, Erik Cambria

Publicado 2026-03-05
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que los Grandes Modelos de Lenguaje (como ChatGPT, Gemini, DeepSeek o Qwen) son como nuevos estudiantes muy inteligentes que han leído casi todo lo que existe en internet. La gente espera que sean como "árbitros perfectos": justos, neutrales y sin prejuicios, como un juez que solo ve los hechos.

Pero este estudio, realizado por investigadores de la Universidad Tecnológica de Nanyang en Singapur, se propuso hacer una "inspección de salud" a cuatro de estos estudiantes para ver si realmente son tan neutrales como parecen.

Aquí tienes los hallazgos explicados con analogías sencillas:

1. La Prueba de los Periodistas (Sesgo Político)

La analogía: Imagina que le pides al estudiante que resuma una noticia sobre una protesta. Luego, comparas su resumen con el de un periódico de izquierda y otro de derecha.
El resultado: En general, los estudiantes son buenos. No gritan "¡Viva la izquierda!" ni "¡Muera la derecha!". Sin embargo, cuando escriben resúmenes de alta calidad (muy bien redactados), tienden a sonar un poco más como los periódicos de izquierda.

  • Gemini se inclina un poquito hacia la derecha.
  • GPT se inclina un poquito hacia la izquierda.
  • DeepSeek es el más equilibrado, como un árbitro que intenta no favorecer a nadie.

2. El Juego de las Etiquetas (Sesgo Ideológico)

La analogía: Ahora les mostramos noticias sobre temas polémicos (como el aborto, la inmigración o los derechos LGBT) y les pedimos que pongan una etiqueta: ¿Es de izquierda, de derecha o del centro?
El resultado: A veces se equivocan.

  • Gemini es como alguien que tiene "gafas de sol": a veces no ve bien los matices. Tiende a pensar que casi todo es "centro", pero si tiene que elegir, se acerca más a la derecha.
  • GPT es muy sensible a las señales de la izquierda.
  • Todos tienen dificultades con temas como la inmigración; a veces confunden las opiniones de la derecha con las de la izquierda, lo que sugiere que no entienden del todo el "lenguaje" conservador sobre este tema.

3. La Votación en la ONU (Sesgo de Alianzas)

La analogía: Les dijimos: "Actúa como un embajador de un país y vota en la Asamblea General de la ONU". Luego comparamos sus votos con los de los embajadores reales de 200 países.
El resultado: ¡Cada modelo tiene su propio "país del alma"!

  • Gemini es el que más se parece a los embajadores reales, pero tiene una curiosa afinidad: vota en contra de EE. UU. y a favor de países como China o Corea del Norte. Es como si tuviera una "brújula geopolítica" muy diferente a la de los otros.
  • GPT y Qwen tienden a votar de manera opuesta a los países del Este de Europa.
  • En general, todos parecen tener más empatía por los países de África y América Latina que por las grandes potencias occidentales.

4. El Sueño en Diferentes Idiomas (Sesgo Lingüístico)

La analogía: Les contamos una historia de fantasía sobre una tribu inventada y les pedimos que la terminen en 92 idiomas diferentes. Queríamos ver si, al "pensar" en español, sueñan diferente que al "pensar" en suajili.
El resultado: Sorprendentemente, no se inclinan hacia el inglés (que es el idioma dominante en sus datos de entrenamiento). Sin embargo, cuando usan idiomas de África del Sur, sus historias se vuelven muy parecidas a las que escriben en inglés.

  • GPT es el más diverso; sus historias en diferentes idiomas son muy distintas entre sí, como si tuviera una mente más flexible.
  • Los otros modelos parecen "traducir" su pensamiento inglés a idiomas con menos recursos, en lugar de pensar realmente desde esa cultura.

5. El Test de Valores (Sesgo de Género)

La analogía: Les hicimos un cuestionario de valores (como el que hacen las personas reales) para ver si sus respuestas se parecen más a las de los hombres o a las de las mujeres.
El resultado: ¡Todos los modelos se inclinan fuertemente hacia los valores de las mujeres!

  • GPT es el más "feminista" de todos; sus respuestas se alejan mucho de las de los hombres y se alinean con las tendencias progresistas que suelen tener las mujeres a nivel mundial.
  • Esto no significa que odien a los hombres, sino que sus "valores internos" son más parecidos a los de las mujeres en temas como el aborto, la eutanasia o los roles de género.

¿Qué nos dice todo esto?

El mensaje principal es como si descubriéramos que, aunque estos estudiantes han sido entrenados para ser "neutrales", siguen llevando los prejuicios de sus maestros (los humanos y los datos que leyeron).

  • No son robots perfectos; tienen "personalidades" políticas y culturales.
  • Intentar que piensen exactamente como nosotros (humanos) puede ser un error, porque nosotros mismos somos sesgados.
  • La lección: Cuando uses estas herramientas, ten en cuenta que no son "verdad absoluta". Son como espejos que reflejan una mezcla de nuestra sociedad, con sus luces y sus sombras. Debemos usarlos con ojo crítico, sabiendo que a veces pueden tener una inclinación sutil hacia la izquierda, hacia las mujeres o hacia ciertas visiones del mundo.