Can LLMs Model Incorrect Student Reasoning? A Case Study on Distractor Generation

Este estudio demuestra que los modelos de lenguaje grandes (LLM) pueden generar distractores educativos de alta calidad al seguir un proceso alineado con las mejores prácticas de las ciencias del aprendizaje, el cual consiste en resolver primero el problema correctamente para luego simular y seleccionar razonamientos erróneos plausibles.

Yanick Zengaffinen, Andreas Opedal, Donya Rooein, Kv Aditya Srivatsa, Shashank Sonkar, Mrinmaya Sachan

Publicado 2026-03-17
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este artículo de investigación es como una investigación forense en un laboratorio de cocina, pero en lugar de cocineros, estamos estudiando a Inteligencias Artificiales (IA) que intentan aprender a pensar como estudiantes que se equivocan.

Aquí tienes la explicación sencilla, con analogías para que lo entiendas perfectamente:

🍎 El Problema: Crear "Trampas" Inteligentes

En la escuela, los profesores hacen exámenes de opción múltiple. La respuesta correcta es la "manzana dorada", pero las otras opciones (las incorrectas) se llaman distractores.

Para que un examen sea bueno, los distractores no pueden ser cualquier cosa. Tienen que ser trampas creíbles.

  • Ejemplo: Si la respuesta correcta es 5, un distractor malo sería "500". Un distractor inteligente sería "4" (porque el estudiante olvidó sumar 1).
  • El reto: Crear estas trampas es difícil y aburrido para los humanos. Los autores de este estudio querían saber: ¿Puede una IA (como un Chatbot avanzado) inventar estas trampas inteligentes por sí sola?

🔍 La Investigación: ¿Cómo piensa la IA?

Los investigadores no solo miraron si la IA daba la respuesta correcta o no. Querían ver el proceso mental (el "pensamiento en voz alta") de la IA. Imagina que le pides a un chef que cocine un plato, pero en lugar de solo darle el plato final, le pides que te muestre todo el proceso: cómo corta, cómo saltea y dónde se equivoca.

Usaron dos modelos de IA muy potentes (DeepSeek y GLM) y les pidieron que crearan 3 respuestas incorrectas para problemas de matemáticas.

🧠 El Descubrimiento Sorprendente: ¡La IA es un buen estudiante!

Lo más interesante que encontraron es que la IA no adivina al azar. Sigue un proceso muy ordenado que los expertos en educación recomiendan:

  1. Primero, resuelve bien el problema: La IA actúa como un estudiante perfecto. Primero calcula la respuesta correcta (la "manzana dorada").
  2. Luego, se pone en el zapato del estudiante: Piensa: "¿Qué error podría cometer un niño aquí?". Imagina que el niño olvida dividir por 3, o que suma en lugar de restar.
  3. Simula el error: La IA dice: "Bueno, si el niño olvida dividir, obtendría este resultado incorrecto".
  4. Elige las mejores trampas: Revisa sus ideas y selecciona las 3 que parecen más probables de que un estudiante real elija.

La analogía: Es como un director de cine que primero actúa la escena perfecta, y luego dice: "Ahora, voy a actuar como si el personaje hubiera olvidado sus líneas, o como si tropezara, para ver qué sale".

⚠️ ¿Dónde fallan? (Los "Tropezones")

Aunque la IA sigue el proceso correcto, a veces falla en los detalles:

  • El error principal: A veces, la IA se equivoca al calcular la respuesta correcta desde el principio. Si la base es mala, todas las trampas que inventa después también serán malas.
  • La selección: A veces inventa demasiadas ideas y le cuesta elegir las mejores 3.

🛠️ La Solución Mágica: El "Ancla"

Los investigadores descubrieron algo muy útil. Si le dices a la IA: "Oye, la respuesta correcta es 12. Ahora, inventa 3 errores basados en eso", la IA funciona mucho mejor.

  • Analogía: Es como si le dieras a un arquitecto los planos exactos de la casa antes de pedirle que diseñe los errores de construcción. Al tener la respuesta correcta "anclada" en su mente, la IA no se pierde y crea trampas mucho más realistas (mejoraron un 8% en calidad).

💡 Conclusión en una frase

Las IAs modernas son muy buenas para simular cómo piensan los estudiantes porque primero piensan como expertos y luego se "ponen el sombrero" de principiante para cometer errores creíbles. Si les damos la respuesta correcta como guía, se vuelven excelentes creadores de exámenes.

En resumen: La IA no está "alucinando" respuestas incorrectas; está actuando un error de forma muy inteligente, siguiendo un guion que los psicólogos de la educación ya conocían.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →