Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Este artigo apresenta um pipeline inovador de aprendizado ativo em duas etapas para reconhecimento automático de fala, que combina agrupamento de x-vectors e inferência bayesiana via dropout Monte Carlo para selecionar amostras diversificadas e informativas, otimizando significativamente o esforço de rotulagem e o desempenho do modelo.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

Rethinking the Mixture of Vision Encoders Paradigm for Enhanced Visual Understanding in Multimodal LLMs

O artigo apresenta o LEO, uma arquitetura simples e eficaz que otimiza a fusão de múltiplos codificadores visuais em modelos de linguagem multimodal através de uma receita leve de integração, demonstrando desempenho superior em diversos benchmarks e forte capacidade de generalização para domínios especializados como a condução autónoma.

Mozhgan Nasr Azadani, James Riddell, Sean Sedwards, Krzysztof Czarnecki2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Esta pesquisa oferece uma visão geral estruturada sobre como os modelos de linguagem multimodais estão transformando o ciclo de vida científico, abrangendo desde a descoberta e experimentação até a geração de conteúdo e avaliação, ao mesmo tempo que discute técnicas, tendências, desafios éticos e o potencial de integração em futuros sistemas de "IA para Ciência".

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

O artigo apresenta o RM-R1, uma nova classe de Modelos de Recompensa de Raciocínio (ReasRMs) que integra cadeias de raciocínio e o mecanismo de "cadeia de rubricas" para melhorar a interpretabilidade e o desempenho na modelagem de recompensas, superando modelos proprietários e de grande porte em benchmarks padrão.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

Mitigating Content Effects on Reasoning in Language Models through Fine-Grained Activation Steering

Este artigo propõe o método K-CAST, uma técnica de direcionamento de ativação condicional baseada em kNN que mitiga eficazmente os vieses de conteúdo no raciocínio de modelos de linguagem, melhorando a precisão do raciocínio formal em até 15% sem prejudicar significativamente outras capacidades do modelo.

Marco Valentino, Geonhee Kim, Dhairya Dalal, Zhixue Zhao, André Freitas2026-03-09🤖 cs.AI