Each language version is independently generated for its own context, not a direct translation.
Imagine que você está tentando ensinar um assistente de IA muito inteligente a escrever um código de computador para você. Você não dá apenas um comando e pronto; vocês têm uma conversa longa, onde você pede algo, ele faz, você vê um erro, pede para corrigir, ele corrige, mas às vezes "esquece" o que você pediu antes.
Este artigo é como um relatório de investigação sobre por que essas conversas às vezes dão errado. Os pesquisadores chamam esses problemas de "Cheiros de Interação" (Interaction Smells). Assim como um carro com um cheiro estranho indica que algo mecânico está errado, mesmo que o motor pareça funcionar, esses "cheiros" indicam que a colaboração entre humano e IA está doente, mesmo que o código final pareça ok.
Aqui está a explicação do estudo, dividida em partes simples:
1. O Problema: A IA esquece o que foi combinado
Quando você pede para a IA fazer algo complexo em várias etapas (multi-turn), ela tende a cometer erros sutis. Os pesquisadores analisaram milhares de conversas reais e descobriram que a IA não é perfeita em manter o contexto.
Eles criaram um catálogo de "doenças" (uma taxonomia) para classificar esses erros. Pense nisso como um manual de diagnóstico para mecânicos de IA:
- O Cliente Confuso (Qualidade da Intenção): Às vezes, você pede algo vago ("faça um sistema de streaming") e a IA chuta qual tipo de streaming você quer.
- O Cliente Incompleto: Você pede para criar uma tabela, mas esquece de dizer que precisa de uma coluna de "preço". A IA inventa um preço, e depois você percebe que estava errado.
- A IA que Ignora Regras (Compliance): Você diz: "Nunca use a biblioteca X". Na próxima mensagem, a IA usa a biblioteca X porque focou apenas no novo pedido e esqueceu a regra antiga.
- A IA que Quebra o que já funcionava: Você pede para adicionar um novo recurso, e a IA, ao tentar consertar, apaga acidentalmente uma parte do código que já estava funcionando perfeitamente. É como tentar consertar o teto da casa e derrubar a parede da cozinha.
- O "Giro" (Respostas Repetitivas): Você faz uma nova pergunta, e a IA responde exatamente a mesma coisa que respondeu na pergunta anterior, como se estivesse num loop infinito.
2. O Diagnóstico: Quem é o pior culpado?
Os pesquisadores testaram 6 IAs famosas (como GPT-4o, Gemini, Qwen, etc.) para ver quem tinha mais "doenças".
- A descoberta principal: O problema mais comum não é a IA não entender o que você quer (isso é raro hoje em dia). O problema é que a IA esquece as regras que você estabeleceu no início da conversa.
- O "Cheiro" mais fedido: A IA frequentemente ignora obrigações que você pediu antes (chamado de "Omissão de Obrigação"). Por exemplo, se você disse "use Python" e depois pediu "adicione um gráfico", a IA às vezes muda para outra linguagem ou esquece de manter o Python.
- Quem se sai melhor? O GPT-4o foi o mais consistente, mas nenhuma IA está imune. Até as IAs mais inteligentes cometem esses erros quando a conversa fica longa.
3. A Solução: O "Guarda-Costas" da IA (InCE)
Para resolver isso, os pesquisadores criaram um novo sistema chamado InCE. Imagine que a IA principal é um funcionário muito talentoso, mas distraído. O InCE é como um gerente de projeto ou um guarda-costas que fica ao lado dele.
O InCE faz duas coisas principais:
- Extrai as Regras de Ouro (Invariantes): Antes de a IA escrever qualquer linha de código, o "gerente" olha para toda a conversa e cria uma lista de regras que nunca podem ser quebradas (ex: "sempre usar Python", "nunca apagar a função X"). Ele entrega essa lista para a IA antes de ela começar a trabalhar.
- Auditoria Prévia: Antes de a IA enviar a resposta para você, o "gerente" lê o rascunho e diz: "Ei, você esqueceu de manter o formato que combinamos no início" ou "Você quebrou a parte que já estava funcionando". Se houver erro, o gerente pede para a IA corrigir antes de mostrar a você.
O resultado?
Com esse "gerente" ao lado, a taxa de sucesso das tarefas aumentou significativamente. A IA cometeu menos erros de esquecimento e parou de quebrar o código que já funcionava. O sistema tornou a colaboração mais fluida e menos frustrante.
Resumo Final
Este estudo nos ensina que, para trabalhar bem com IAs em tarefas complexas, não basta apenas dar comandos. Precisamos de sistemas que lembrem ativamente das regras do passado e verifiquem se o presente não está destruindo o que já foi construído.
A lição de ouro é: Não confie apenas na memória da IA. Use ferramentas que mantenham um "contrato" claro e visível durante toda a conversa, garantindo que a IA não esqueça quem ela é e o que você pediu no início.