Do LLMs Share Human-Like Biases? Causal Reasoning Under Prior Knowledge, Irrelevant Context, and Varying Compute Budgets

Este estudio demuestra que, a diferencia de los humanos, la mayoría de los grandes modelos de lenguaje (LLMs) no replican los sesgos de razonamiento causal típicos y emplean estrategias más basadas en reglas que, aunque se vuelven más robustas con el razonamiento paso a paso, pueden fallar ante la incertidumbre intrínseca.

Hanna M. Dettki, Charley M. Wu, Bob Rehder

Publicado 2026-03-16
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este artículo es como un gran experimento de cocina para ver cómo piensan dos tipos de "chef": los humanos y las Inteligencias Artificiales (IA), específicamente los modelos de lenguaje grandes (como el que estás usando ahora).

Aquí tienes la explicación de lo que descubrieron, usando analogías sencillas:

🍳 El Escenario: La "Trampa del Colisionador"

Imagina que tienes un sistema de alarma (el efecto) que suena cuando dos cosas diferentes ocurren:

  1. Causa A: Se abre una ventana.
  2. Causa B: Se rompe una tubería.

Si la alarma suena, ¿qué crees que pasó?

  • Si sabes que solo se abrió la ventana, es muy probable que la tubería esté bien.
  • Pero si sabes que ambas cosas ocurrieron, la lógica humana a veces falla. Tendemos a pensar: "¡Espera! Si la ventana ya explica la alarma, la tubería no necesita estar rota". A esto los científicos le llaman "explicar alejando" (o explaining away).

Los humanos somos muy buenos detectando patrones, pero a veces nos saltamos las reglas lógicas estrictas porque nuestro cerebro asume cosas que no se dijeron (como "quizás hay un fantasma que también suena la alarma").

🔍 ¿Qué hicieron los investigadores?

Tomaron a más de 20 inteligencias artificiales y les presentaron este mismo acertijo, pero con tres trucos diferentes:

  1. Historias reales: Usaron temas como el clima o la economía.
  2. Abstracción: Cambiaron las palabras por símbolos sin sentido (como "X1 causa Z").
  3. Ruido: Les metieron texto basura en medio de la pregunta para ver si se distraían.

Además, les preguntaron de dos formas:

  • Directo: "¿Qué probabilidad hay de que X pase?" (Respuesta rápida).
  • Paso a paso (CoT): "Piensa paso a paso antes de responder" (Como si les dieras tiempo para pensar).

🎭 Los Descubrimientos Principales

1. Las IAs son "Reglas Estrictas", los Humanos son "Creativos"

  • Los Humanos: Somos como detectives intuitivos. Si nos dan un caso, asumimos que hay cosas ocultas que no nos contaron. Si la alarma suena, pensamos: "Bueno, la ventana está abierta, pero quizás también hay un ratón que activó el sensor". No seguimos las reglas al pie de la letra; llenamos los vacíos con nuestra imaginación.
  • Las IAs: Son como abogados muy estrictos. Si el contrato (la instrucción) dice que solo hay dos causas, ellas asumen que solo existen esas dos. No imaginan ratones ni fantasmas. Siguen la regla literal al 100%.
    • Analogía: Si le dices a un humano "haz un pastel", quizás le ponga chocolate extra porque le gusta. Si se lo pides a una IA, te dará exactamente el pastel de la receta, ni más ni menos.

2. Las IAs no tienen los mismos "Vicios" que nosotros

Los humanos tenemos un vicio curioso: a veces creemos que dos cosas están conectadas cuando no lo están (violación de Markov).

  • El hallazgo: Las IAs no tienen este vicio. Son mucho más lógicas y matemáticas que nosotros en este aspecto. No se dejan engañar por la "sensación" de que dos cosas están relacionadas.
  • La ironía: Aunque las IAs fueron entrenadas con textos escritos por humanos, no copiaron nuestros errores de lógica. Son más "normales" (lógicamente correctas) que nosotros en estos acertijos.

3. El Truco del "Pensar Paso a Paso" (Chain-of-Thought)

Cuando les pediste a las IAs que pensaran paso a paso antes de responder:

  • Se volvieron aún más precisas.
  • Se volvieron más resistentes al ruido. Si les metías texto basura, si pensaban un poco, ignoraban el ruido y daban la respuesta correcta.
  • Analogía: Es como si le dijeras a un estudiante: "No te apresures, lee el examen con calma". De repente, deja de distraerse con los dibujos de la página y se enfoca en las matemáticas.

4. No todas las IAs son iguales

  • Las IAs pequeñas o viejas: Se distraen fácil. Si cambias las palabras o les metes ruido, se confunden y cambian su respuesta.
  • Las IAs grandes y nuevas (como Gemini 2.5 Pro): Son como tanques. No importa si cambias las palabras, si metes ruido o si usas una historia abstracta; su lógica se mantiene firme y constante.

💡 ¿Por qué importa esto?

El artículo nos dice algo muy importante para el futuro:

  • Si quieres un asistente que siga reglas al pie de la letra (como un juez o un médico que no debe inventar síntomas), las IAs son geniales porque no tienen nuestros "atajos mentales" ni sesgos.
  • Pero cuidado: En el mundo real, a veces necesitamos asumir cosas que no se dicen (como que un paciente podría tener una enfermedad rara que no está en la lista). Aquí, la IA podría fallar porque es demasiado estricta y no "abre su mente" a posibilidades ocultas como lo hacemos los humanos.

🏁 En resumen

Las IAs no son humanos con un poco más de memoria. Son máquinas de lógica estricta que, a diferencia de nosotros, no se dejan engañar por la intuición o las distracciones, pero tampoco tienen nuestra capacidad de imaginar lo que no se dice.

  • Nosotros: Creativos, llenamos huecos, a veces nos equivocamos por intuición.
  • Ellas: Estrictas, siguen reglas, son muy precisas, pero a veces les falta "sentido común" para lo no dicho.

La clave para el futuro es usarlas juntas: Nosotros para la intuición y la visión de conjunto, y ellas para la lógica estricta y el cálculo.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →