Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Cette article présente un pipeline d'apprentissage actif en deux étapes pour la reconnaissance automatique de la parole, combinant le clustering d'x-vectors pour la diversité et une méthode bayésienne basée sur le dropout Monte Carlo pour l'information, afin d'optimiser l'entraînement des modèles avec moins de données étiquetées.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

Transforming Agency. On the mode of existence of Large Language Models

Cet article soutient que les grands modèles de langage, bien qu'ils ne possèdent pas d'agence autonome car ils échouent à satisfaire les conditions d'individualité, de normativité et d'asymétrie interactionnelle requises par les théories incarnées de l'esprit, doivent être définis comme des interlocuteurs linguistiques qui, par leur couplage avec les humains, transforment profondément les formes d'agence existantes en produisant des modalités d'agence « intermédiaires » (midtended) dépassant la simple instrumentalité étendue.

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

Towards Resource Efficient and Interpretable Bias Mitigation in Large Language Models

Cet article propose une méthode efficace et interprétable pour atténuer les biais dans les grands modèles de langage en ajoutant un signal de débiaisage généré par de petits modèles experts lors du décodage, réduisant ainsi les préjugés liés au genre, à la race et à la religion sans compromettre les performances du modèle.

Schrasing Tong, Eliott Zemour, Jessica Lu, Rawisara Lohanimit, Lalana Kagal2026-03-09💬 cs.CL

Rethinking the Mixture of Vision Encoders Paradigm for Enhanced Visual Understanding in Multimodal LLMs

Ce papier présente LEO, une architecture simple et efficace qui améliore la compréhension visuelle des modèles multimodaux en intégrant un mélange d'encodeurs de vision via une fusion légère et un intercalage de tuiles, surpassant les approches existantes sur divers benchmarks et s'adaptant bien au domaine de la conduite autonome.

Mozhgan Nasr Azadani, James Riddell, Sean Sedwards, Krzysztof Czarnecki2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Ce rapport de synthèse présente une vue d'ensemble structurée des techniques, des ensembles de données et des enjeux éthiques liés à l'utilisation des grands modèles de langage pour assister les chercheurs dans l'ensemble du cycle scientifique, de la découverte et l'expérimentation à la génération de contenu multimodal et à l'évaluation.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

RM-R1: Reward Modeling as Reasoning

Le papier présente RM-R1, une nouvelle classe de modèles de récompense génératifs qui améliorent l'interprétabilité et les performances en traitant la modélisation de la récompense comme un tâche de raisonnement via un mécanisme de « chaîne de critères » et un pipeline d'entraînement combinant distillation et apprentissage par renforcement.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI

ESGenius: Benchmarking LLMs on Environmental, Social, and Governance (ESG) and Sustainability Knowledge

Ce papier présente ESGenius, le premier benchmark complet évaluant les capacités des grands modèles de langage sur les connaissances en matière d'ESG et de durabilité via un ensemble de questions et un corpus de documents de référence, démontrant que l'approche RAG améliore significativement les performances, en particulier pour les modèles plus petits.

Chaoyue He, Xin Zhou, Yi Wu + 9 more2026-03-09💬 cs.CL