EigenData: A Self-Evolving Multi-Agent Platform for Function-Calling Data Synthesis, Auditing, and Repair

O artigo apresenta o EigenData, uma plataforma multiagente autônoma e autoevolutiva que automatiza a síntese, auditoria e reparo de dados para chamadas de função, demonstrando sua eficácia ao corrigir sistematicamente o benchmark BFCL-V3 e introduzir métricas de avaliação baseadas no estado do banco de dados que melhor se correlacionam com julgamentos humanos de correção funcional.

Jiaao Chen, Jingyuan Qi, Mingye Gao, Wei-Chen Wang, Hanrui Wang, Di Jin2026-03-09✓ Author reviewed 🤖 cs.AI

Aligning the True Semantics: Constrained Decoupling and Distribution Sampling for Cross-Modal Alignment

O artigo propõe o algoritmo CDDS, que utiliza um UNet duplo para desacoplar adaptativamente as representações em componentes semânticos e modais, combinado com uma amostragem de distribuição para preencher a lacuna entre modalidades, alcançando assim um alinhamento semântico superior ao estado da arte em tarefas de aprendizado multimodal.

Xiang Ma, Lexin Fang, Litian Xu, Caiming Zhang2026-03-09🤖 cs.LG

CBR-to-SQL: Rethinking Retrieval-based Text-to-SQL using Case-based Reasoning in the Healthcare Domain

O artigo apresenta o CBR-to-SQL, um novo framework baseado em Raciocínio Baseado em Casos que supera as limitações dos métodos RAG tradicionais na tradução de linguagem natural para SQL no domínio da saúde, alcançando maior precisão lógica e eficiência amostral ao utilizar um processo de recuperação em duas etapas para lidar com a variabilidade da terminologia médica.

Hung Nguyen, Hans Moen, Pekka Marttinen2026-03-09🤖 cs.AI

NOTAI.AI: Explainable Detection of Machine-Generated Text via Curvature and Feature Attribution

O artigo apresenta o NOTAI.AI, um framework explicável para detecção de texto gerado por IA que combina sinais de curvatura, recursos neurais e estilométricos em um classificador XGBoost, utilizando SHAP e uma camada de LLM para gerar atribuições de recursos e explicações em linguagem natural acessíveis aos usuários.

Oleksandr Marchenko Breneur, Adelaide Danilov, Aria Nourbakhsh, Salima Lamsiyah2026-03-09💬 cs.CL

Safer Reasoning Traces: Measuring and Mitigating Chain-of-Thought Leakage in LLMs

Este artigo investiga como o raciocínio encadeado (Chain-of-Thought) em LLMs pode aumentar o vazamento de informações pessoais identificáveis (PII), propondo uma estrutura para medir esse risco e avaliando que nenhum método de filtragem único é ideal, o que motiva a adoção de políticas híbridas e adaptativas para equilibrar utilidade e segurança.

Patrick Ahrend, Tobias Eder, Xiyang Yang, Zhiyi Pan, Georg Groh2026-03-09💬 cs.CL

RACAS: Controlling Diverse Robots With a Single Agentic System

O artigo apresenta o RACAS, uma arquitetura agênica baseada em modelos de linguagem que permite o controle em malha fechada de robôs radicalmente diferentes (terrestres, subaquáticos e de membros articulados) utilizando apenas descrições em linguagem natural, eliminando a necessidade de reprogramação ou re-treinamento para cada nova plataforma.

Dylan R. Ashley, Jan Przepióra, Yimeng Chen, Ali Abualsaud, Nurzhan Yesmagambet, Shinkyu Park, Eric Feron, Jürgen Schmidhuber2026-03-09🤖 cs.AI

FreeTxt-Vi: A Benchmarked Vietnamese-English Toolkit for Segmentation, Sentiment, and Summarisation

O artigo apresenta o FreeTxt-Vi, uma ferramenta web de código aberto que oferece um pipeline unificado de processamento de linguagem natural para análise de textos bilíngues vietnamita-inglês, integrando segmentação, análise de sentimentos e sumarização com desempenho competitivo e sem exigir conhecimentos de programação.

Hung Nguyen Huy, Mo El-Haj, Dawn Knight, Paul Rayson2026-03-09💬 cs.CL

Cultural Perspectives and Expectations for Generative AI: A Global Survey Approach

Este artigo apresenta os resultados de uma pesquisa global que analisa as atitudes e crenças sobre como a Inteligência Artificial Generativa deve representar culturas, propondo definições de cultura extraídas das próprias comunidades e recomendando abordagens participativas e um quadro de sensibilidade para lidar com limites culturais.

Erin van Liemt, Renee Shelby, Andrew Smart, Sinchana Kumbale, Richard Zhang, Neha Dixit, Qazi Mamunur Rashid, Jamila Smith-Loud2026-03-09🤖 cs.AI

Structured Multidimensional Representation Learning for Large Language Models

Este trabalho apresenta o L-Transformer, uma arquitetura que utiliza fatoração espectral tensorial para decompor o espaço de incorporação em sub-transformadores independentes, reduzindo significativamente o número de parâmetros do codificador (até 75%) enquanto mantém ou melhora a precisão em tarefas de processamento de linguagem natural.

Alaa El Ichi, Khalide Jbilou, Mohamed El Guide, Franck Dufrenois2026-03-09💬 cs.CL

CodeScout: Contextual Problem Statement Enhancement for Software Agents

O artigo apresenta o CodeScout, uma abordagem de refinamento de consultas que melhora em 20% a taxa de resolução de tarefas de desenvolvimento de software em agentes de IA ao transformar solicitações mal definidas em problemas estruturados através de uma pré-análise contextual do código, sem exigir modificações nos scaffolds existentes.

Manan Suri, Xiangci Li, Mehdi Shojaie, Songyang Han, Chao-Chun Hsu, Shweta Garg, Aniket Anand Deshmukh, Varun Kumar2026-03-09💬 cs.CL

NERdME: a Named Entity Recognition Dataset for Indexing Research Artifacts in Code Repositories

O artigo apresenta o NERdME, um novo conjunto de dados com 200 arquivos README anotados manualmente para facilitar a extração de informações sobre artefatos de implementação em repositórios de código, preenchendo uma lacuna nas atuais bases de dados de extração de informações acadêmicas que se concentram apenas em artigos científicos.

Genet Asefa Gesese, Zongxiong Chen, Shufan Jiang, Mary Ann Tan, Zhaotai Liu, Sonja Schimmler, Harald Sack2026-03-09💬 cs.CL

PVminerLLM: Structured Extraction of Patient Voice from Patient-Generated Text using Large Language Models

O artigo apresenta o PVminer, um benchmark, e o PVminerLLM, um modelo de linguagem supervisionado que supera as abordagens baseadas em prompts na extração estruturada de "voz do paciente" a partir de textos gerados por eles, permitindo a análise escalável de fatores não clínicos que influenciam os resultados de saúde.

Samah Fodeh, Linhai Ma, Ganesh Puthiaraju, Srivani Talakokkul, Afshan Khan, Ashley Hagaman, Sarah Lowe, Aimee Roundtree2026-03-09🤖 cs.AI

Tutor Move Taxonomy: A Theory-Aligned Framework for Analyzing Instructional Moves in Tutoring

Este artigo apresenta uma taxonomia de movimentos de tutoria desenvolvida por meio de um processo híbrido dedutivo-indutivo para analisar sistematicamente interações de ensino, categorizando ações instrucionais em quatro domínios principais e permitindo a análise em larga escala de estratégias de tutoria e seus resultados de aprendizagem.

Zhuqian Zhou, Kirk Vanacore, Tamisha Thompson, Jennifer St John, Rene Kizilcec2026-03-09💬 cs.CL

Proof-of-Guardrail in AI Agents and What (Not) to Trust from It

Este artigo propõe o "Proof-of-Guardrail", um sistema que utiliza Ambientes de Execução Confiáveis (TEE) para fornecer provas criptográficas verificáveis de que as respostas de agentes de IA foram processadas por guardrails de segurança específicos, garantindo a integridade da execução sem revelar o agente proprietário, embora alerte para riscos persistentes de desvio de segurança por desenvolvedores mal-intencionados.

Xisen Jin, Michael Duan, Qin Lin, Aaron Chan, Zhenglun Chen, Junyi Du, Xiang Ren2026-03-09🤖 cs.AI

RouteGoT: Node-Adaptive Routing for Cost-Efficient Graph of Thoughts Reasoning

O artigo apresenta o RouteGoT, um framework de roteamento adaptativo que otimiza o raciocínio em Grafos de Pensamentos (GoT) alocando dinamicamente modelos leves para subtarefas simples e modelos robustos para planejamento e síntese, resultando em uma redução significativa no uso de tokens sem comprometer a precisão.

Yuhang Liu, Ruijie Wang, Yunlong Chu, Bing Hao, Yumeng Lin, Shengzhong Liu, Minglai Shao2026-03-09💬 cs.CL

HART: Data-Driven Hallucination Attribution and Evidence-Based Tracing for Large Language Models

O artigo propõe o HART, um novo framework baseado em dados para atribuição de alucinações e rastreamento de evidências em Grandes Modelos de Linguagem, que supera as abordagens existentes ao formalizar o problema em quatro etapas estruturadas e introduzir o primeiro conjunto de dados organizado para avaliação causal e interpretável de erros de geração.

Shize Liang, Hongzhi Wang2026-03-09💬 cs.CL