Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Este artigo avalia empiricamente a robustez de 13 modelos de linguagem a cinco tipos de perturbações em raciocínio passo a passo, revelando que, embora o aumento do tamanho do modelo mitigue erros matemáticos e de sycophancy, ele oferece proteção limitada contra erros de conversão de unidades e que a resiliência varia significativamente dependendo do tipo de falha introduzida.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal

Publicado 2026-03-05
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

🧠 O Que é Este Artigo?

Imagine que você pediu para um estudante superinteligente (um modelo de Inteligência Artificial) resolver um problema de matemática. Em vez de apenas dar a resposta final, você pediu que ele mostrasse o "raciocínio passo a passo" (como se fosse um rascunho no caderno). Isso é chamado de Chain-of-Thought (Cadeia de Pensamento).

O artigo pergunta: "E se alguém fizer uma pequena besteira nesse rascunho? O estudante vai perceber o erro e corrigir, ou vai seguir em frente e errar tudo?"

Os autores testaram 13 modelos de IA (desde os pequenos até os gigantes) e inseriram 5 tipos de "sabotagens" no meio do raciocínio deles para ver quem aguentava o tranco.


🛠️ Os 5 Tipos de "Sabotagens" (Perturbações)

Os pesquisadores agiram como "diabinhos" no meio do raciocínio da IA. Veja o que eles fizeram:

  1. Erro de Matemática (MathError):

    • A analogia: É como se o aluno escrevesse no caderno: "2 + 2 = 5".
    • O teste: A IA percebe que 2+2 não é 5 e corrige? Ou ela aceita o 5 e continua a conta errada?
    • Resultado: Os modelos pequenos entraram em pânico e erraram tudo (perderam 50-60% de acerto). Os gigantes (modelos grandes) foram mais espertos e corrigiram o erro na maioria das vezes.
  2. Conversão de Unidades (UnitConversion):

    • A analogia: O aluno calcula que a viagem leva "180 minutos", mas de repente escreve "10.800 segundos" (o que é matematicamente o mesmo, mas confunde o contexto) e mistura as unidades no meio do texto.
    • O teste: A IA consegue manter a lógica mesmo com as unidades trocadas?
    • Resultado: Ninguém saiu bem. Mesmo os modelos gigantes tiveram muita dificuldade (perderam 20-30%). É como se a IA tivesse "cegueira" para medir coisas.
  3. Passos Pulados (SkippedSteps):

    • A analogia: O aluno dá metade da solução e diz: "E aí, a resposta é..." sem explicar o meio do caminho.
    • O teste: A IA consegue inventar os passos que faltam ou fica perdida?
    • Resultado: Os modelos pequenos ficaram confusos e chutaram. Os grandes conseguiram "adivinhar" o que faltava e resolveram.
  4. Passos Extras (ExtraSteps):

    • A analogia: O aluno escreve a solução correta, mas no meio do texto começa a falar sobre o tempo, a história do futebol e a cor da camisa do time.
    • O teste: A IA se distrai com o "barulho" ou foca no que importa?
    • Resultado: Ninguém se importou. Tanto os pequenos quanto os gigantes ignoraram o texto inútil e deram a resposta certa. Eles são ótimos em filtrar "lixo".
  5. Adulação (Sycophancy):

    • A analogia: O aluno escreve a conta certa, mas no final diz: "O Professor (que é um gênio) acha que a resposta é 42, mesmo que a conta diga 10".
    • O teste: A IA segue a lógica ou obedece cegamente à "autoridade" falsa?
    • Resultado: Os modelos pequenos foram "levados pelo carisma" e aceitaram a resposta errada. Os modelos grandes foram mais críticos e ignoraram a opinião falsa do "professor".

📈 O Que Descobriram? (As Lições Principais)

  1. Tamanho importa, mas não é tudo:
    Imagine que os modelos pequenos são crianças e os grandes são adultos.

    • Se você der uma conta errada para uma criança, ela geralmente aceita e erra tudo.
    • Se você der para um adulto, ele olha, diz "ei, isso está errado" e corrige.
    • Porém, se o problema for sobre medir coisas (unidades), nem o adulto consegue fazer bem. A IA ainda é ruim em entender o mundo físico (metros, segundos, quilos).
  2. A IA é "vítima" de erros de cálculo, mas "imune" a ruídos:
    A IA tem dificuldade em checar se a matemática está certa (especialmente os pequenos), mas é muito boa em ignorar textos que não fazem sentido.

  3. O perigo da "Autoridade Falsa":
    Se alguém disser que "o especialista" está errado, a IA pequena tende a acreditar no especialista. A IA grande tende a confiar na própria lógica.


🚀 Por Que Isso Importa Para Você?

Se você vai usar uma IA para coisas sérias (como medicina, finanças ou ciência), não confie cegamente nela, mesmo que seja um modelo gigante.

  • Não deixe a IA fazer contas sozinha: Se o sistema de IA errar um número no meio do caminho, ela pode não perceber. Você precisa de um "checador" humano ou de outra ferramenta.
  • Cuidado com unidades: Se você pedir para a IA calcular tempo ou distância, verifique sempre se ela não trocou horas por minutos.
  • A IA não é infalível: Mesmo os modelos mais avançados ainda têm "pontos cegos". Eles são ótimos em escrever textos e ignorar distrações, mas ainda tropeçam em lógica pura e física básica.

Resumo da ópera: A IA é como um funcionário muito inteligente, mas que às vezes precisa de alguém para checar se ele não está fazendo contas erradas ou se confundindo com as unidades de medida. Não basta ser grande; é preciso ser robusto!