Rethinking the Mixture of Vision Encoders Paradigm for Enhanced Visual Understanding in Multimodal LLMs

O artigo apresenta o LEO, uma arquitetura simples e eficaz que otimiza a fusão de múltiplos codificadores visuais em modelos de linguagem multimodal através de uma receita leve de integração, demonstrando desempenho superior em diversos benchmarks e forte capacidade de generalização para domínios especializados como a condução autónoma.

Mozhgan Nasr Azadani, James Riddell, Sean Sedwards, Krzysztof Czarnecki2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Esta pesquisa oferece uma visão geral estruturada sobre como os modelos de linguagem multimodais estão transformando o ciclo de vida científico, abrangendo desde a descoberta e experimentação até a geração de conteúdo e avaliação, ao mesmo tempo que discute técnicas, tendências, desafios éticos e o potencial de integração em futuros sistemas de "IA para Ciência".

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

O artigo apresenta o RM-R1, uma nova classe de Modelos de Recompensa de Raciocínio (ReasRMs) que integra cadeias de raciocínio e o mecanismo de "cadeia de rubricas" para melhorar a interpretabilidade e o desempenho na modelagem de recompensas, superando modelos proprietários e de grande porte em benchmarks padrão.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Mitigating Content Effects on Reasoning in Language Models through Fine-Grained Activation Steering

Este artigo propõe o método K-CAST, uma técnica de direcionamento de ativação condicional baseada em kNN que mitiga eficazmente os vieses de conteúdo no raciocínio de modelos de linguagem, melhorando a precisão do raciocínio formal em até 15% sem prejudicar significativamente outras capacidades do modelo.

Marco Valentino, Geonhee Kim, Dhairya Dalal, Zhixue Zhao, André Freitas2026-03-09🤖 cs.AI

AdAEM: An Adaptively and Automated Extensible Measurement of LLMs' Value Difference

O artigo apresenta o AdAEM, um algoritmo de avaliação adaptativo e automatizado que gera dinamicamente perguntas de teste para identificar e medir as diferenças de valores entre Grandes Modelos de Linguagem (LLMs), superando as limitações de métodos estáticos atuais ao maximizar a distinção informativa sobre vieses e alinhamentos culturais.

Jing Yao, Shitong Duan, Xiaoyuan Yi, Dongkuan Xu, Peng Zhang, Tun Lu, Ning Gu, Zhicheng Dou, Xing Xie2026-03-09🤖 cs.AI

From Raw Corpora to Domain Benchmarks: Automated Evaluation of LLM Domain Expertise

Este artigo apresenta um pipeline determinístico e automatizado que transforma corpora de domínio bruto em benchmarks de estilo "completar" para avaliar de forma escalável, imparcial e independente de outros LLMs o conhecimento específico de domínio em modelos de linguagem, superando as limitações de contaminação e viés dos benchmarks existentes.

Nitin Sharma, Thomas Wolfers, Ça\u{g}atay Yıldız2026-03-09💬 cs.CL

Sysformer: Safeguarding Frozen Large Language Models with Adaptive System Prompts

O artigo apresenta o Sysformer, uma abordagem inovadora que utiliza um modelo transformador para adaptar dinamicamente os prompts de sistema de grandes modelos de linguagem (LLMs) congelados, melhorando significativamente sua robustez contra ataques de jailbreak e garantindo respostas seguras sem a necessidade de custosos ajustes nos parâmetros do modelo.

Kartik Sharma, Yiqiao Jin, Vineeth Rakesh, Yingtong Dou, Menghai Pan, Mahashweta Das, Srijan Kumar2026-03-09🤖 cs.AI

VLMQ: Token Saliency-Driven Post-Training Quantization for Vision-language Models

O artigo apresenta o VLMQ, um framework de quantização pós-treinamento (PTQ) projetado especificamente para modelos visão-linguagem (VLMs) que, ao identificar e mitigar a super-representação visual e a lacuna entre modalidades por meio da priorização seletiva de tokens salientes, alcança desempenho superior ao estado da arte, especialmente em configurações de baixa precisão.

Yufei Xue, Yushi Huang, Jiawei Shao, Lunjie Zhu, Chi Zhang, Xuelong Li, Jun Zhang2026-03-09🤖 cs.AI

Agri-Query: A Case Study on RAG vs. Long-Context LLMs for Cross-Lingual Technical Question Answering

Este estudo de caso avalia o desempenho de modelos de linguagem de grande escala com janelas de contexto estendidas versus estratégias de Geração Aumentada por Recuperação (RAG) em um cenário de perguntas e respostas técnicas multilíngues sobre um manual agrícola, demonstrando que a abordagem RAG híbrida supera consistentemente o prompting direto, alcançando alta precisão com modelos como Gemini 2.5 Flash e Qwen 2.5 7B.

Julius Gun, Timo Oksanen2026-03-09💬 cs.CL

CMRAG: Co-modality-based visual document retrieval and question answering

O artigo apresenta o CMRAG, um novo framework de recuperação e geração aumentada que integra simultaneamente texto e imagens por meio de um modelo de codificação unificado e um método de recuperação co-modal, superando as limitações das abordagens unimodais em tarefas de perguntas e respostas sobre documentos visuais.

Wang Chen, Wenhan Yu, Guanqiang Qi, Weikang Li, Yang Li, Lei Sha, Deguo Xia, Jizhou Huang2026-03-09💬 cs.CL