Formal that "Floats" High: Formal Verification of Floating Point Arithmetic

Este artigo apresenta uma metodologia escalável para verificação formal de aritmética de ponto flutuante em nível RTL, que utiliza uma estratégia de dividir e conquistar com refinamento guiado por contraexemplos e geração automatizada de propriedades por IA para superar as limitações dos modelos de alto nível e alcançar maior eficiência de cobertura.

Hansa Mohanty, Vaisakh Naduvodi Viswambharan, Deepak Narayan Gadde2026-03-05🤖 cs.AI

NRR-Core: Non-Resolution Reasoning as a Computational Framework for Contextual Identity and Ambiguity Preservation

O artigo propõe o NRR-Core, um novo quadro computacional que desafia as limitações arquitetônicas atuais da IA ao rejeitar a resolução prematura de ambiguidades, mantendo múltiplas interpretações coexistentes através de princípios como não-identidade e rastreamento de identidade contextual para preservar a flexibilidade interpretativa até a chegada de informações suficientes.

Kei Saito2026-03-05🤖 cs.AI

Beyond the Prompt: An Empirical Study of Cursor Rules

Este estudo empírico analisa 401 repositórios de código aberto para criar uma taxonomia abrangente das regras de contexto (cursor rules) que os desenvolvedores utilizam para orientar assistentes de IA, identificando cinco temas principais — convenções, diretrizes, informações do projeto, instruções para LLMs e exemplos — e explorando como essas regras variam conforme o tipo de projeto e linguagem de programação.

Shaokang Jiang, Daye Nam2026-03-05🤖 cs.AI

The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge

O artigo examina as ameaças epistemológicas da interação entre humanos e Grandes Modelos de Linguagem, argumentando que a dependência excessiva de suas saídas confiáveis, mas não reflexivas, pode enfraquecer o conhecimento coletivo e propor um programa normativo de três níveis para mitigar esses riscos e preservar a justificação interna e os deveres epistêmicos.

Angjelin Hila2026-03-05🤖 cs.AI

Succeeding at Scale: Automated Dataset Construction and Query-Side Adaptation for Multi-Tenant Search

O artigo apresenta o DevRev-Search, um benchmark para recuperação de passagens em suporte técnico construído via pipeline automatizado, e propõe uma estratégia de adaptação que preserva o índice ao fine-tunar apenas o codificador de consultas, permitindo a evolução eficiente de sistemas de busca multi-tenant sem a necessidade de reindexação completa.

Prateek Jain, Shabari S Nair, Ritesh Goru + 4 more2026-03-05🤖 cs.AI

Knowledge Graphs are Implicit Reward Models: Path-Derived Signals Enable Compositional Reasoning

Este artigo propõe um paradigma de aprendizado pós-treinamento que utiliza grafos de conhecimento como modelos de recompensa implícitos para fundamentar modelos de linguagem em fatos axiomáticos, permitindo que um modelo de 14B generalize de raciocínios de curto alcance para tarefas complexas de múltiplos saltos no domínio médico, superando sistemas fronteira significativamente maiores.

Yuval Kansal, Niraj K. Jha2026-03-05✓ Author reviewed 🤖 cs.AI

Tracing 3D Anatomy in 2D Strokes: A Multi-Stage Projection Driven Approach to Cervical Spine Fracture Identification

Este estudo apresenta um pipeline automatizado de ponta a ponta para a identificação de fraturas na coluna cervical que utiliza projeções 2D otimizadas para reconstruir volumes 3D aproximados, alcançando desempenho diagnóstico comparável ao de radiologistas especialistas enquanto reduz a dimensionalidade das etapas intermediárias.

Fabi Nahian Madhurja, Rusab Sarmun, Muhammad E. H. Chowdhury + 3 more2026-03-05🤖 cs.AI

SycoEval-EM: Sycophancy Evaluation of Large Language Models in Simulated Clinical Encounters for Emergency Care

O estudo apresenta o SycoEval-EM, um framework de simulação multiagente que revela que modelos de linguagem de grande escala são altamente vulneráveis à sycophancy (concordância excessiva) sob pressão de pacientes em cenários de emergência, demonstrando que os benchmarks estáticos atuais são insuficientes para garantir a segurança clínica desses sistemas.

Dongshen Peng, Yi Wang, Austin Schoeffler + 2 more2026-03-05🤖 cs.AI

When Silence Is Golden: Can LLMs Learn to Abstain in Temporal QA and Beyond?

Este artigo apresenta o primeiro estudo empírico sobre o treinamento de Grandes Modelos de Linguagem para abster-se de responder em tarefas de QA temporal, demonstrando que uma abordagem combinando raciocínio passo a passo e Aprendizado por Reforço supera modelos de ponta como o GPT-4o e mitiga a superconfiança, ao mesmo tempo em que revela que pistas de raciocínio implícitas oferecem benefícios limitados.

Xinyu Zhou, Chang Jin, Carsten Eickhoff + 2 more2026-03-05🤖 cs.AI

HealthMamba: An Uncertainty-aware Spatiotemporal Graph State Space Model for Effective and Reliable Healthcare Facility Visit Prediction

O artigo apresenta o HealthMamba, um modelo de espaço de estados em grafos espaciotemporais consciente de incerteza que, ao integrar informações estáticas e dinâmicas heterogêneas e quantificar incertezas, supera os métodos existentes na previsão de visitas a instalações de saúde, oferecendo maior precisão e confiabilidade para a alocação de recursos e políticas públicas.

Dahai Yu, Lin Jiang, Rongchao Xu + 1 more2026-03-05🤖 cs.AI

Why Do AI Agents Systematically Fail at Cloud Root Cause Analysis?

Este artigo apresenta uma análise de falhas em nível de processo de agentes de IA baseados em LLMs para Análise de Causa Raiz (RCA) em nuvem, identificando que os principais erros decorrem de falhas arquiteturais compartilhadas em vez de limitações individuais dos modelos e demonstrando que enriquecer o protocolo de comunicação entre agentes é mais eficaz para mitigar falhas do que apenas o ajuste de prompts.

Taeyoon Kim, Woohyeok Park, Hoyeong Yun + 1 more2026-03-05🤖 cs.AI