Abductive Reasoning with Syllogistic Forms in Large Language Models

Este artículo examina la capacidad de los modelos de lenguaje grandes para realizar razonamiento abductivo mediante la conversión de datos silogísticos, con el objetivo de evaluar sus sesgos y mejorar la comprensión de la cognición humana y artificial más allá de la deducción formal.

Hirohiko Abe, Risako Ando, Takanobu Morishita Kentaro Ozeki, Koji Mineshima, Mitsuhiro Okada

Publicado 2026-03-09
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ ¿Los IAs son buenos detectives o solo buenos calculadores?

Imagina que tienes dos tipos de mentes:

  1. El Matemático (Deducción): Sigue reglas estrictas. Si dice "Todos los gatos tienen cola" y "Firulais es un gato", entonces concluye: "Firulais tiene cola". Es lógico, pero rígido.
  2. El Detective (Abducción): Ve una pista y trata de adivinar qué pasó. Si ve "Firulais tiene cola", puede pensar: "¡Ah! Firulais debe ser un gato". Pero espera... ¿y si es un perro con una cola postiza? El detective hace una suposición basada en lo que ve, no una certeza matemática.

Este artículo investiga si las Inteligencias Artificiales (como ChatGPT o Llama) son buenas haciendo de detectives (abducción) o si solo son buenos matemáticos (deducción).

🧩 El Experimento: Un juego de "Adivina la causa"

Los investigadores crearon un juego de preguntas y respuestas para probar a varias IAs.

  • La Regla (Major Premise): "Todas las pelotas que están en la bolsa son blancas".
  • La Observación (Observation): "Estas pelotas son blancas".
  • La Pregunta: ¿Por qué son blancas?
    • Opción A (Detective): "Porque estaban en la bolsa". (Es una suposición lógica, pero no 100% segura).
    • Opción B (Matemático): "No se puede saber con certeza".

El truco es que, en la vida real, los humanos usamos mucho al Detective. Si ves que el suelo está mojado, asumes que llovió (aunque alguien podría haber pasado una manguera). Pero las IAs suelen estar entrenadas para ser Matemáticos perfectos.

📉 Los Resultados: ¡Sorpresa!

Los autores probaron modelos muy avanzados (como GPT-4 y Llama-3) y descubrieron algo curioso:

  1. Las IAs son mejores en Matemáticas que en Detective:
    Cuando les pedían hacer deducción pura (reglas estrictas), las IAs acertaban mucho. Pero cuando les pedían hacer abducción (hacer suposiciones lógicas basadas en pistas), su rendimiento cayó drásticamente.

    • Analogía: Es como si un estudiante fuera un genio resolviendo ecuaciones de álgebra, pero se bloqueara completamente cuando le piden adivinar por qué se rompió un jarrón en el suelo.
  2. El "Sesgo de Creencia" (El prejuicio humano):
    Las IAs no son tan objetivas como creemos. Si la suposición lógica iba en contra de lo que la gente "cree" que es normal, la IA fallaba.

    • Ejemplo: Si la regla decía "Todos los pasteles de la tienda dulce son picantes" (algo que sabemos que es falso en la vida real), la IA tenía más dificultad para razonar lógicamente que si la regla fuera "Todos los pasteles son dulces".
    • Conclusión: Las IAs tienen los mismos "prejuicios" que los humanos. Se dejan llevar por lo que sienten que es verdad, en lugar de seguir la lógica pura.
  3. El problema de la "Negación":
    Cuando las oraciones tenían palabras como "no" o "ninguno", las IAs se confundían mucho más. Tendían a elegir respuestas negativas simplemente porque la pregunta tenía una negación, sin pensar bien en la lógica. Es como si el cerebro de la IA se "enredara" con las palabras negativas.

💡 ¿Por qué pasa esto?

Los autores sugieren que las IAs han leído millones de libros y artículos (donde la gente explica cosas), pero quizás no han practicado lo suficiente el arte de hacer hipótesis lógicas en un formato estricto.

Además, las IAs están entrenadas para predecir la siguiente palabra en una frase, no necesariamente para actuar como un detective que busca la mejor explicación posible. A veces, la IA intenta aplicar reglas de matemáticas (deducción) a un problema que requiere imaginación (abducción), y ahí es donde falla.

🚀 ¿Qué significa esto para el futuro?

Este estudio nos dice que, aunque las IAs son increíbles calculadoras, aún no son buenos pensadores críticos cuando se trata de adivinar el "por qué" de las cosas en situaciones ambiguas.

  • Para la ciencia: Necesitamos entrenar a las IAs para que sean mejores detectives, no solo mejores calculadoras.
  • Para la vida real: Si quieres que una IA te ayude a resolver un misterio o a entender una situación compleja, ten en cuenta que puede cometer errores similares a los nuestros: puede dejarse llevar por sus "prejuicios" o confundirse con las palabras negativas.

En resumen: Las IAs son excelentes siguiendo el manual de instrucciones, pero todavía necesitan aprender a ser detectives creativos que entiendan el contexto y las suposiciones del mundo real.