Can LLMs Model Incorrect Student Reasoning? A Case Study on Distractor Generation

Este estudo demonstra que os Grandes Modelos de Linguagem (LLMs) alinham-se surpreendentemente às melhores práticas das ciências da aprendizagem ao gerar distratores, seguindo um processo de resolver o problema corretamente antes de simular equívocos, sendo que fornecer a solução correta no prompt melhora significativamente a qualidade dos resultados.

Yanick Zengaffinen, Andreas Opedal, Donya Rooein, Kv Aditya Srivatsa, Shashank Sonkar, Mrinmaya Sachan

Publicado 2026-03-17
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um professor criando uma prova de matemática. Para que a prova seja boa, você não pode apenas colocar a resposta certa; você precisa criar "iscas" (opções erradas) que pareçam plausíveis para um aluno que está com dúvidas. Se a isca for muito absurda, ninguém a escolhe. Se for muito boa, ela revela exatamente onde o aluno errou.

Este artigo é como um detetive que entra na mente de uma Inteligência Artificial (IA) para ver como ela cria essas "iscas" para alunos. Os pesquisadores queriam saber: Será que a IA consegue pensar como um aluno que está cometendo erros, ou ela apenas chuta números aleatórios?

Aqui está a explicação do que eles descobriram, usando analogias do dia a dia:

1. O Grande Mistério: A IA "Finge" ser um Aluno?

Os pesquisadores pegaram duas IAs muito inteligentes (o DeepSeek e o GLM) e pediram: "Crie 3 respostas erradas para esta questão de matemática, mas que pareçam erros reais que um aluno faria."

Eles não olharam apenas para a resposta final. Eles olharam para o raciocínio (o "pensamento" interno) da IA, passo a passo. Foi como se eles tivessem um gravador ligado na mente da IA enquanto ela trabalhava.

2. A Descoberta Surpreendente: A IA segue um "Roteiro de Mestre"

O que eles viram foi incrível. A IA não estava apenas chutando. Ela estava seguindo um roteiro que os especialistas em educação (os "mestres" da criação de provas) recomendam há décadas.

Pense na IA como um ator de teatro preparando uma cena:

  1. Primeiro, ela aprende a peça certa: A IA resolve o problema matematicamente de forma correta primeiro. Ela sabe qual é a resposta certa.
  2. Depois, ela decide "atuar" errado: Ela pensa: "Ok, onde um aluno poderia tropeçar?". Ela imagina erros comuns, como "esquecer de dividir um número" ou "somar em vez de multiplicar".
  3. Ela simula o erro: A IA faz o cálculo errado propositalmente, como se fosse um aluno desatento.
  4. Ela escolhe a melhor "farsa": Ela cria várias versões de erros e escolhe as que parecem mais convincentes para um aluno.

A Analogia do Cozinheiro:
Imagine que a IA é um chef que sabe fazer o prato perfeito (a resposta certa). Para criar um prato "estragado" (a resposta errada) que um cliente (o aluno) poderia pedir por engano, o chef primeiro faz o prato perfeito. Depois, ele pensa: "Se eu esquecer o sal, fica assim. Se eu queimar o pão, fica assado demais." Ele cria essas versões erradas baseadas no prato perfeito, não chutando aleatoriamente.

3. Onde a IA "Trava"? (Os Erros do Sistema)

Apesar de seguir o roteiro certo, a IA ainda comete erros. Os pesquisadores descobriram que o problema não é que a IA não sabe como simular um erro. O problema é que ela às vezes esquece a resposta certa no meio do caminho ou escolhe a "farsa" errada.

  • O Problema da Âncora: Quando os pesquisadores deram a resposta certa para a IA antes de ela começar a criar as iscas, o desempenho dela melhorou em 8%.
    • Analogia: É como se você estivesse tentando desenhar um mapa de um tesouro. Se você já sabe onde o X marca o local (a resposta certa), é muito mais fácil desenhar os caminhos falsos que levam a lugares errados. Se você não sabe onde o tesouro está, seus caminhos falsos podem acabar levando a lugares sem sentido.

4. O Que Isso Significa para o Futuro?

Este estudo é muito importante porque mostra que as IAs modernas não são apenas "geradoras de texto". Elas conseguem modelar a mente humana. Elas entendem que para criar uma boa pergunta de prova, você precisa entender a lógica do erro, não apenas o erro em si.

Resumo da Ópera:

  • A IA é inteligente: Ela sabe resolver o problema certo antes de criar o errado.
  • Ela segue o manual: Ela usa as mesmas estratégias que os melhores professores humanos usam.
  • Ela precisa de ajuda: Para funcionar perfeitamente, ela precisa ter a resposta certa "na mão" (como uma âncora) para não se perder.

No fim, os autores dizem que, com um pouco de ajuste (como dar a resposta certa para a IA), podemos usar essas máquinas para criar provas de qualidade incrível, diagnosticar onde os alunos têm dificuldade e personalizar o ensino de uma forma que antes só era possível com um professor humano muito dedicado.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →