From Ambiguity to Accuracy: The Transformative Effect of Coreference Resolution on Retrieval-Augmented Generation systems

Este estudo demonstra que a aplicação de resolução de coreferência em sistemas de Geração Aumentada por Recuperação (RAG) melhora a eficácia da recuperação e o desempenho em tarefas de perguntas e respostas, especialmente ao utilizar pooling médio e ao beneficiar modelos menores que possuem capacidade limitada para lidar com ambiguidades referenciais.

Youngjoon Jang, Seongtae Hong, Junyoung Son + 3 more2026-03-05🤖 cs.AI

Text2VLM: Adapting Text-Only Datasets to Evaluate Alignment Training in Visual Language Models

O artigo apresenta o Text2VLM, uma nova metodologia que adapta conjuntos de dados apenas textuais para formatos multimodais a fim de avaliar e revelar vulnerabilidades de modelos de linguagem visual (VLMs) a ataques de injeção de prompts tipográficos, destacando a necessidade de mecanismos de segurança mais robustos para sua implantação segura.

Gabriel Downer, Sean Craven, Damian Ruck + 1 more2026-03-05🤖 cs.AI

SEVADE: Self-Evolving Multi-Agent Analysis with Decoupled Evaluation for Hallucination-Resistant Irony Detection

O artigo propõe o SEVADE, um novo framework de análise multiagente autoevolutiva com avaliação desacoplada que utiliza um motor de raciocínio dinâmico e um adjudicador de justificativas separado para superar as limitações de alucinação e precisão na detecção de sarcasmo, alcançando desempenho superior ao estado da arte em quatro conjuntos de dados de referência.

Ziqi Liu, Ziyang Zhou, Yilin Li + 4 more2026-03-05💬 cs.CL

ObfusQAte: A Proposed Framework to Evaluate LLM Robustness on Obfuscated Factual Question Answering

O artigo apresenta o ObfusQAte, um novo framework pioneiro que avalia a robustez de Modelos de Linguagem de Grande Escala (LLMs) em tarefas de resposta a perguntas factuais sob níveis variados de obstrução linguística, revelando que esses modelos tendem a falhar ou alucinar quando confrontados com nuances como indirection de entidades nomeadas, distratores e sobrecarga contextual.

Shubhra Ghosh, Abhilekh Borah, Aditya Kumar Guru + 1 more2026-03-05🤖 cs.AI

Trust Me, I Can Convince You: The Contextualized Argument Appraisal Framework

Este artigo propõe o Contextualized Argument Appraisal Framework, um novo modelo que integra variáveis de avaliação cognitiva e características do remetente e receptor para analisar a persuasividade de argumentos, validado através do corpus ContArgA de 4000 anotações que demonstram a correlação entre emoções, familiaridade e a percepção de convencimento.

Lynn Greschner, Sabine Weber, Roman Klinger2026-03-05💬 cs.CL

The Geometry of Reasoning: Flowing Logics in Representation Space

Este trabalho propõe um novo quadro geométrico que modela o raciocínio de grandes modelos de linguagem como fluxos suaves no espaço de representações, demonstrando que o treinamento por previsão de próximo token permite a internalização de invariantes lógicos como geometria de ordem superior e desafia a visão de que esses modelos são meros "papagaios estocásticos".

Yufa Zhou, Yixiao Wang, Xunjian Yin + 2 more2026-03-05🤖 cs.AI

REVISION:Reflective Intent Mining and Online Reasoning Auxiliary for E-commerce Visual Search System Optimization

O artigo apresenta o framework REVISION, que integra mineração de intenções implícitas offline e raciocínio online via modelos de linguagem para otimizar sistemas de busca visual no e-commerce, reduzindo significativamente a taxa de cliques nulos ao alinhar as respostas do sistema às necessidades diversificadas dos usuários.

Yiwen Tang, Qiuyu Zhao, Zenghui Sun + 3 more2026-03-05🤖 cs.AI