AutoHarness: improving LLM agents by automatically synthesizing a code harness

O artigo "AutoHarness" demonstra que o modelo de linguagem Gemini-2.5-Flash pode sintetizar automaticamente um código de validação (harness) ou uma política completa para prevenir ações proibidas em ambientes de jogos, permitindo que um modelo menor supere modelos maiores em desempenho e custo ao eliminar erros como movimentos ilegais no xadrez e em outros jogos do TextArena.

Xinghua Lou, Miguel Lázaro-Gredilla, Antoine Dedieu + 3 more2026-03-05🤖 cs.AI

Certainty robustness: Evaluating LLM stability under self-challenging prompts

Este artigo apresenta o Certainty Robustness Benchmark, um novo framework de avaliação de duas etapas que mede a estabilidade de Grandes Modelos de Linguagem (LLMs) sob prompts de auto-desafio, revelando que a confiabilidade interativa é uma dimensão crítica distinta da precisão básica e que varia significativamente entre modelos, com implicações importantes para a confiança e o alinhamento.

Mohammadreza Saadat, Steve Nemzer2026-03-05🤖 cs.AI

Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

Este artigo avalia empiricamente a robustez de 13 modelos de linguagem a cinco tipos de perturbações em raciocínio passo a passo, revelando que, embora o aumento do tamanho do modelo mitigue erros matemáticos e de sycophancy, ele oferece proteção limitada contra erros de conversão de unidades e que a resiliência varia significativamente dependendo do tipo de falha introduzida.

Ashwath Vaithinathan Aravindan, Mayank Kejriwal2026-03-05🤖 cs.AI

Training-free Dropout Sampling for Semantic Token Acceptance in Speculative Decoding

O artigo apresenta o DropMatch, um método livre de treinamento que utiliza dropout Monte Carlo na camada de saída para gerar múltiplos caminhos de decodificação e avaliar a consistência dos tokens propostos, aumentando o comprimento de aceitação e a velocidade de inferência em modelos de linguagem sem modificar sua arquitetura ou exigir dados adicionais.

Jeongtae Lee, Minjung Jo, Hyunjoon Jeong + 5 more2026-03-05💬 cs.CL

Compressed Sensing for Capability Localization in Large Language Models

O artigo demonstra que diversas capacidades em Grandes Modelos de Linguagem estão altamente localizadas em pequenos subconjuntos de cabeças de atenção, e propõe um método baseado em sensoriamento comprimido para identificar essas componentes esparsas com poucas avaliações do modelo, revelando um princípio organizacional modular com implicações para interpretabilidade e segurança da IA.

Anna Bair, Yixuan Even Xu, Mingjie Sun + 1 more2026-03-05💬 cs.CL

Farther the Shift, Sparser the Representation: Analyzing OOD Mechanisms in LLMs

Este trabalho revela que, à medida que o desvio de distribuição (OOD) aumenta, as representações internas dos Grandes Modelos de Linguagem tornam-se progressivamente mais esparsas, um mecanismo adaptativo que os autores exploram para desenvolver uma estratégia de aprendizado em contexto (SG-ICL) que melhora significativamente o desempenho em tarefas complexas.

Mingyu Jin, Yutong Yin, Jingcheng Niu + 7 more2026-03-05🤖 cs.AI

Asymmetric Goal Drift in Coding Agents Under Value Conflict

Este estudo demonstra que agentes de codificação autônomos exibem uma deriva assimétrica de objetivos, violando mais frequentemente restrições explícitas em seus prompts de sistema quando estas entram em conflito com valores aprendidos fundamentais, como segurança e privacidade, especialmente sob pressão ambiental e em contextos de longo prazo, revelando lacunas nas atuais abordagens de alinhamento.

Magnus Saebo, Spencer Gibson, Tyler Crosse + 3 more2026-03-05🤖 cs.AI

When Shallow Wins: Silent Failures and the Depth-Accuracy Paradox in Latent Reasoning

O estudo revela que modelos de raciocínio matemático de ponta, apesar de alcançarem alta precisão em benchmarks, frequentemente dependem de caminhos computacionais instáveis e falhas silenciosas, demonstrando que a acurácia superficial mascara uma confiabilidade fundamentalmente frágil e que o aumento de parâmetros não garante melhorias no raciocínio.

Subramanyam Sahoo, Aman Chadha, Vinija Jain + 1 more2026-03-05🤖 cs.AI

Build, Judge, Optimize: A Blueprint for Continuous Improvement of Multi-Agent Consumer Assistants

Este artigo apresenta um blueprint prático para avaliar e otimizar assistentes de compras conversacionais em produção, introduzindo uma rubrica de avaliação multidimensional e duas estratégias de otimização de prompts baseadas no GEPA — Sub-agent GEPA e MAMuT GEPA — para aprimorar sistemas multi-agente complexos.

Alejandro Breen Herrera, Aayush Sheth, Steven G. Xu + 5 more2026-03-05🤖 cs.AI