The Third Ambition: Artificial Intelligence and the Science of Human Behavior

Este artigo propõe uma terceira ambição para a inteligência artificial, posicionando os grandes modelos de linguagem como instrumentos científicos para estudar o comportamento humano, a cultura e o raciocínio moral ao analisar padrões de discurso coletivo, ao mesmo tempo em que delineia métodos metodológicos e advertências epistemológicas sobre o uso desses modelos na pesquisa social.

W. Russell Neuman, Chad Coleman2026-03-10💬 cs.CL

To Predict or Not to Predict? Towards reliable uncertainty estimation in the presence of noise

Este estudo demonstra que, embora métodos baseados em softmax sejam competitivos em cenários ideais, as abordagens de Dropout de Monte Carlo oferecem estimativas de incerteza mais robustas e confiáveis para classificação de texto multilíngue sob ruído e mudanças de domínio, permitindo a melhoria do desempenho do modelo ao abstener-se das previsões mais incertas.

Nouran Khallaf, Serge Sharoff2026-03-10💬 cs.CL

How Much Noise Can BERT Handle? Insights from Multilingual Sentence Difficulty Detection

Este estudo avalia o impacto de estratégias de remoção de ruído no desempenho de modelos BERT multilíngues para detecção de dificuldade de frases, revelando que, embora os modelos pré-treinados sejam inerentemente robustos, técnicas como filtragem por Modelos de Mistura Gaussianas (GMM) melhoram significativamente a precisão em conjuntos de dados menores, enquanto a limpeza do corpus resulta no lançamento do maior corpus multilíngue disponível para essa tarefa.

Nouran Khallaf, Serge Sharoff2026-03-10💬 cs.CL

Position: LLMs Must Use Functor-Based and RAG-Driven Bias Mitigation for Fairness

Este artigo de posição defende que a mitigação de vieses em Grandes Modelos de Linguagem (LLMs) deve ser alcançada através de uma metodologia dual que integra transformações baseadas em funtores da teoria das categorias para correção estrutural e a Geração Aumentada por Recuperação (RAG) para injeção contextual de conhecimento diversificado, garantindo assim resultados mais justos e equitativos.

Ravi Ranjan, Utkarsh Grover, Agorista Polyzou2026-03-10💬 cs.CL

Domain-Specific Quality Estimation for Machine Translation in Low-Resource Scenarios

Este artigo investiga a estimativa de qualidade de tradução automática para línguas indicas em cenários de baixo recurso, demonstrando que a adaptação de camadas intermediárias de modelos de linguagem (como ALOPE e LoRMA) supera abordagens puramente baseadas em prompts, especialmente em domínios de alto risco, e disponibiliza conjuntos de dados e código para pesquisa futura.

Namrata Patil Gurav, Akashdeep Ranu, Archchana Sindhujan, Diptesh Kanojia2026-03-10🤖 cs.LG

SoK: Agentic Retrieval-Augmented Generation (RAG): Taxonomy, Architectures, Evaluation, and Research Directions

Este artigo de sistematização de conhecimento (SoK) apresenta o primeiro quadro unificado para a RAG Agêntica, formalizando-a como um processo de decisão de Markov, propondo uma taxonomia arquitetônica abrangente, identificando riscos sistêmicos críticos e delineando direções de pesquisa para sistemas de recuperação e geração autônomos mais confiáveis e escaláveis.

Saroj Mishra, Suman Niroula, Umesh Yadav, Dilip Thakur, Srijan Gyawali, Shiva Gaire2026-03-10💬 cs.CL

Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge Streams

O artigo apresenta o OAKS, um novo benchmark para avaliar a adaptação online de Grandes Modelos de Linguagem a fluxos de conhecimento contínuos, revelando que os modelos atuais e sistemas de memória agêntica possuem limitações significativas no rastreamento preciso de fatos dinâmicos e na resistência a distrações em ambientes de streaming.

Jiyeon Kim, Hyunji Lee, Dylan Zhou, Sue Hyun Park, Seunghyun Yoon, Trung Bui, Franck Dernoncourt, Sungmin Cha, Minjoon Seo2026-03-10💬 cs.CL

AQuA: Toward Strategic Response Generation for Ambiguous Visual Questions

Este artigo apresenta o AQuA, um dataset de perguntas visuais ambíguas com quatro níveis de classificação e estratégias de resposta correspondentes, que permite o ajuste fino de Modelos de Linguagem Visuais para gerar respostas estratégicas e contextualmente apropriadas, superando os modelos existentes que tendem a fornecer respostas excessivamente confiantes em situações ambíguas.

Jihyoung Jang, Hyounghun Kim2026-03-10💬 cs.CL

Generalization in Online Reinforcement Learning for Mobile Agents

Este trabalho apresenta o benchmark AndroidWorld-Generalization e um sistema de treinamento de aprendizado por reforço baseado em GRPO para avaliar e melhorar a generalização zero-shot de agentes móveis baseados em modelos de linguagem e visão, demonstrando ganhos significativos em instâncias não vistas, mas desafios persistentes na generalização para novos aplicativos e templates.

Li Gu, Zihuan Jiang, Zhixiang Chi, Huan Liu, Ziqiang Wang, Yuanhao Yu, Glen Berseth, Yang Wang2026-03-10🤖 cs.LG

Dial: A Knowledge-Grounded Dialect-Specific NL2SQL System

O artigo apresenta o Dial, um sistema de NL2SQL baseado em conhecimento que supera as limitações dos métodos existentes ao gerar consultas SQL semanticamente corretas e executáveis em diversos dialetos de banco de dados, utilizando planejamento lógico consciente de dialeto, uma base de conhecimento hierárquica e um ciclo de depuração orientado à execução.

Xiang Zhang, Hongming Xu, Le Zhou, Wei Zhou, Xuanhe Zhou, Guoliang Li, Yuyu Luo, Changdong Liu, Guorun Chen, Jiang Liao, Fan Wu2026-03-10🤖 cs.LG

Cross-Modal Taxonomic Generalization in (Vision-) Language Models

O estudo demonstra que modelos de linguagem pré-treinados, quando integrados a codificadores de imagem em modelos de visão-linguagem, conseguem recuperar e generalizar conhecimento taxonômico (hiperônimos) mesmo sem evidência explícita durante o treinamento, indicando que essa capacidade surge da combinação entre a coerência dos dados visuais e o conhecimento derivado de pistas linguísticas.

Tianyang Xu, Marcelo Sandoval-Castaneda, Karen Livescu, Greg Shakhnarovich, Kanishka Misra2026-03-10💬 cs.CL

Skip to the Good Part: Representation Structure & Inference-Time Layer Skipping in Diffusion vs. Autoregressive LLMs

O artigo demonstra que os modelos de difusão nativos (dLLMs) possuem uma estrutura de representação mais redundante e hierárquica do que os modelos autoregressivos, permitindo uma redução de até 18,75% nos FLOPs através de um método de pulo de camadas estático e sem alterações arquiteturais, enquanto os modelos autoregressivos sofrem degradação significativa de desempenho sob a mesma condição.

Raghavv Goel, Risheek Garrepalli, Sudhanshu Agrawal, Chris Lott, Mingu Lee, Fatih Porikli2026-03-10💬 cs.CL

Bolbosh: Script-Aware Flow Matching for Kashmiri Text-to-Speech

Este trabalho apresenta o Bolbosh, o primeiro sistema neural de texto para fala (TTS) de código aberto e específico para o idioma caxemire, que supera as limitações dos modelos multilíngues existentes ao utilizar uma estratégia de adaptação supervisionada baseada em Fluxo Condicional de Transporte Ótimo (OT-CFM) e um pipeline de aprimoramento acústico para alcançar inteligibilidade e qualidade superiores.

Tajamul Ashraf, Burhaan Rasheed Zargar, Saeed Abdul Muizz, Ifrah Mushtaq, Nazima Mehdi, Iqra Altaf Gillani, Aadil Amin Kak, Janibul Bashir2026-03-10💬 cs.CL

TableMind++: An Uncertainty-Aware Programmatic Agent for Tool-Augmented Table Reasoning

O artigo apresenta o TableMind++, uma evolução do agente programático TableMind que introduz um novo framework de inferência consciente da incerteza, combinando poda de planos guiada por memória, refinamento de ações baseado em confiança e agregação de trajetórias para mitigar alucinações e melhorar o raciocínio em tabelas.

Mingyue Cheng, Shuo Yu, Chuang Jiang, Xiaoyu Tao, Qingyang Mao, Jie Ouyang, Qi Liu, Enhong Chen2026-03-10💬 cs.CL

Accent Vector: Controllable Accent Manipulation for Multilingual TTS Without Accented Data

O artigo apresenta o "Accent Vector", uma representação controlável que permite a manipulação de sotaques em sistemas de síntese de fala multilíngue sem a necessidade de dados de treinamento com sotaques, gerando fala com sotaques variados e mistos através do ajuste e interpolação de vetores derivados de idiomas nativos.

Thanathai Lertpetchpun, Thanapat Trachu, Jihwan Lee, Tiantian Feng, Dani Byrd, Shrikanth Narayanan2026-03-10💬 cs.CL