Position: Stop Anthropomorphizing Intermediate Tokens as Reasoning/Thinking Traces!

Este artigo de posicionamento argumenta que a antropomorfização dos tokens intermediários como "traces de raciocínio" ou "pensamentos" é uma metáfora perigosa que distorce a natureza dos modelos, prejudica seu uso eficaz e leva a pesquisas questionáveis, exigindo que a comunidade científica abandone essa terminologia.

Subbarao Kambhampati, Karthik Valmeekam, Siddhant Bhambri, Vardhan Palod, Lucas Saldyt, Kaya Stechly, Soumya Rani Samineni, Durgesh Kalwar, Upasana Biswas2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Este artigo adota uma abordagem centrada nas sobreviventes para expor como o atual ecossistema técnico malicioso, composto por modelos de código aberto e softwares de "nudificação", e as falhas nas práticas de governança de IA, como as refletidas no relatório NIST AI 100-4, falham em prevenir eficazmente a criação de imagens íntimas não consensuais geradas por IA de adultos.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

HCT-QA: A Benchmark for Question Answering on Human-Centric Tables

Este artigo apresenta o HCT-QA, um novo benchmark abrangente para avaliação de modelos de linguagem e visão na resposta a perguntas sobre tabelas centradas no humano (HCTs), oferecendo um vasto conjunto de dados reais e sintéticos que supera as limitações das soluções existentes e demonstra ganhos significativos de desempenho através de ajuste fino.

Mohammad S. Ahmad, Zan A. Naeem, Michaël Aupetit, Ahmed Elmagarmid, Mohamed Eltabakh, Xiaosong Ma, Mourad Ouzzani, Chaoyi Ruan, Hani Al-Sayeh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Este artigo apresenta o FourierSpecNet, uma arquitetura híbrida que integra o método espectral de Fourier com aprendizado profundo para aproximar com eficiência o operador de colisão da equação de Boltzmann, oferecendo precisão competitiva, redução significativa de custo computacional e capacidade de super-resolução zero-shot para cenários elásticos e inelásticos.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

O artigo apresenta o RM-R1, uma nova classe de Modelos de Recompensa de Raciocínio (ReasRMs) que integra cadeias de raciocínio e o mecanismo de "cadeia de rubricas" para melhorar a interpretabilidade e o desempenho na modelagem de recompensas, superando modelos proprietários e de grande porte em benchmarks padrão.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Software Development Life Cycle Perspective: A Survey of Benchmarks for Code Large Language Models and Agents

Este artigo apresenta uma análise sistemática de 178 benchmarks para modelos de linguagem e agentes de código, revelando um desequilíbrio significativo que prioriza excessivamente a fase de implementação em detrimento do planejamento e design, além de apontar a falta de estratégias contra contaminação de dados e propor direções futuras para alinhar as capacidades teóricas dessas ferramentas com sua eficácia prática no ciclo de vida de desenvolvimento de software.

Kaixin Wang, Tianlin Li, Xiaoyu Zhang, Chong Wang, Weisong Sun, Yang Liu, Aishan Liu, Xianglong Liu, Chao Shen, Bin Shi2026-03-09🤖 cs.AI

Mitigating Content Effects on Reasoning in Language Models through Fine-Grained Activation Steering

Este artigo propõe o método K-CAST, uma técnica de direcionamento de ativação condicional baseada em kNN que mitiga eficazmente os vieses de conteúdo no raciocínio de modelos de linguagem, melhorando a precisão do raciocínio formal em até 15% sem prejudicar significativamente outras capacidades do modelo.

Marco Valentino, Geonhee Kim, Dhairya Dalal, Zhixue Zhao, André Freitas2026-03-09🤖 cs.AI

AdAEM: An Adaptively and Automated Extensible Measurement of LLMs' Value Difference

O artigo apresenta o AdAEM, um algoritmo de avaliação adaptativo e automatizado que gera dinamicamente perguntas de teste para identificar e medir as diferenças de valores entre Grandes Modelos de Linguagem (LLMs), superando as limitações de métodos estáticos atuais ao maximizar a distinção informativa sobre vieses e alinhamentos culturais.

Jing Yao, Shitong Duan, Xiaoyuan Yi, Dongkuan Xu, Peng Zhang, Tun Lu, Ning Gu, Zhicheng Dou, Xing Xie2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

O artigo apresenta o ESGenius, o primeiro benchmark abrangente para avaliar o conhecimento de modelos de linguagem em ESG e sustentabilidade, demonstrando que, embora os modelos de ponta apresentem desempenho moderado em cenários zero-shot, a integração de métodos de Geração Aumentada por Recuperação (RAG) com um corpus de fontes autoritativas eleva significativamente a precisão, especialmente em modelos menores.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL

KramaBench: A Benchmark for AI Systems on Data-to-Insight Pipelines over Data Lakes

O artigo apresenta o KramaBench, um benchmark composto por 104 desafios curados manualmente para avaliar a capacidade de sistemas de IA em orquestrar pipelines completos de dados a insights em lagos de dados, revelando que, embora os modelos atuais consigam identificar tarefas individuais, eles ainda têm dificuldade significativa em gerar e executar pipelines funcionais de ponta a ponta.

Eugenie Lai, Gerardo Vitagliano, Ziyu Zhang, Om Chabra, Sivaprasad Sudhir, Anna Zeng, Anton A. Zabreyko, Chenning Li, Ferdi Kossmann, Jialin Ding, Jun Chen, Markos Markakis, Matthew Russo, Weiyang Wang, Ziniu Wu, Michael J. Cafarella, Lei Cao, Samuel Madden, Tim Kraska2026-03-09🤖 cs.AI

VisioMath: Benchmarking Figure-based Mathematical Reasoning in LMMs

O artigo apresenta o VisioMath, um novo benchmark de 1.800 problemas matemáticos do ensino fundamental e médio que avaliam a capacidade de raciocínio comparativo de Modelos Multimodais Grandes (LMMs) ao distinguir diagramas visualmente similares, revelando que falhas frequentes decorrem de desalinhamento entre imagem e texto e demonstrando que estratégias de alinhamento podem melhorar significativamente o desempenho desses modelos.

Can Li, Ying Liu, Ting Zhang, Mei Wang, Hua Huang2026-03-09🤖 cs.AI

Discerning What Matters: A Multi-Dimensional Assessment of Moral Competence in LLMs

Este artigo propõe uma nova avaliação multidimensional da competência moral em modelos de linguagem, revelando que, embora superem humanos em cenários éticos pré-definidos, eles falham significativamente em discernir informações moralmente relevantes em meio a ruídos, sugerindo que as avaliações atuais superestimam suas capacidades de raciocínio moral.

Daniel Kilov, Caroline Hendy, Secil Yanik Guyot, Aaron J. Snoswell, Seth Lazar2026-03-09🤖 cs.AI

ContextBench: Modifying Contexts for Targeted Latent Activation

O artigo apresenta o ContextBench, um benchmark que avalia métodos de modificação de contexto para ativar características latentes específicas em modelos de linguagem, demonstrando que variantes aprimoradas do EPO alcançam o estado da arte ao equilibrar eficazmente a força de elicitação e a fluência linguística.

Robert Graham, Edward Stevinson, Leo Richter, Alexander Chia, Joseph Miller, Joseph Isaac Bloom2026-03-09🤖 cs.AI

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

O artigo apresenta o Sysformer, uma abordagem inovadora que utiliza um modelo transformador para adaptar dinamicamente os prompts de sistema de grandes modelos de linguagem (LLMs) congelados, melhorando significativamente sua robustez contra ataques de jailbreak e garantindo respostas seguras sem a necessidade de custosos ajustes nos parâmetros do modelo.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

Iterative Quantum Feature Maps

O artigo propõe os Mapas de Recursos Quânticos Iterativos (IQFMs), um framework híbrido que combina mapas de recursos quânticos rasos com pesos de aumento clássicos e aprendizado contrastivo para criar arquiteturas profundas que superam redes neurais quânticas convolucionais em tarefas ruidosas e evitam a otimização de parâmetros variacionais, oferecendo uma solução promissora para as limitações de hardware atual.

Nasa Matsumoto, Quoc Hoan Tran, Koki Chinzei, Yasuhiro Endo, Hirotaka Oshima2026-03-09⚛️ quant-ph

SPARC: Concept-Aligned Sparse Autoencoders for Cross-Model and Cross-Modal Interpretability

O artigo apresenta o SPARC, um novo framework que utiliza autoencoders esparsos alinhados para criar um espaço latente unificado e compartilhado entre diferentes arquiteturas e modalidades de IA, permitindo a comparação direta de conceitos de alto nível e habilitando aplicações como localização espacial guiada por texto e recuperação cruzada.

Ali Nasiri-Sarvi, Hassan Rivaz, Mahdi S. Hosseini2026-03-09🤖 cs.AI

ExDD: Explicit Dual Distribution Learning for Surface Defect Detection via Diffusion Synthesis

O artigo apresenta o ExDD, um novo framework para detecção de defeitos industriais que supera as limitações dos paradigmas de uma única classe ao modelar explicitamente distribuições duplas de características e utilizar modelos de difusão latente para gerar defeitos sintéticos, alcançando desempenho superior no conjunto de dados KSDD2.

Muhammad Aqeel, Federico Leonardi, Francesco Setti2026-03-09🤖 cs.AI