Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Questo articolo presenta un innovativo pipeline di apprendimento attivo a due stadi per il riconoscimento automatico del parlato che combina il clustering degli x-vector per la diversità dei campioni e un metodo bayesiano basato sul dropout Monte Carlo per l'incertezza, ottimizzando significativamente l'efficienza del labeling e le prestazioni del modello.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

Transforming Agency. On the mode of existence of Large Language Models

Il paper sostiene che i Large Language Models, pur non possedendo un'agenzia autonoma secondo le teorie della mente incarnata a causa della mancanza di individualità, normatività e asimmetria interazionale, agiscono come interlocutori linguistici che, attraverso un'incarnazione testuale e computazionale, trasformano radicalmente l'agenzia umana generando forme ibride di "agenzia di mezzo".

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

Towards Resource Efficient and Interpretable Bias Mitigation in Large Language Models

Questo articolo propone un metodo efficiente e interpretabile per mitigare i pregiudizi nei grandi modelli linguistici, utilizzando piccoli modelli esperti per generare un segnale di debiasing aggiunto durante la decodifica, riducendo così i bias legati a genere, razza e religione senza compromettere le prestazioni del modello.

Schrasing Tong, Eliott Zemour, Jessica Lu, Rawisara Lohanimit, Lalana Kagal2026-03-09💬 cs.CL

SpecFuse: Ensembling Large Language Models via Next-Segment Prediction

Il paper presenta SpecEM, un framework di ensemble per modelli linguistici di grandi dimensioni (LLM) senza addestramento che combina la previsione di segmenti successivi ispirata allo speculative decoding con un meccanismo di feedback online per adattare dinamicamente i pesi dei modelli, ottenendo così prestazioni superiori rispetto ai metodi esistenti su diverse famiglie di LLM e benchmark.

Bo Lv, Nayu Liu, Chen Tang, Xin Liu, Yue Yu, Ping Luo2026-03-09🤖 cs.AI

Rethinking the Mixture of Vision Encoders Paradigm for Enhanced Visual Understanding in Multimodal LLMs

Il paper presenta LEO, un'architettura semplice ed efficace che ottimizza la fusione di diversi encoder visivi tramite un approccio leggero basato su proiezioni indipendenti e intercalamento di sequenze, ottenendo prestazioni superiori su numerosi benchmark e una forte capacità di generalizzazione nel dominio della guida autonoma.

Mozhgan Nasr Azadani, James Riddell, Sean Sedwards, Krzysztof Czarnecki2026-03-09💬 cs.CL

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Questo sondaggio offre una panoramica strutturata delle tecniche, dei dataset e delle sfide etiche legate all'uso dei modelli linguistici su larga scala per assistere i ricercatori in tutte le fasi del ciclo di vita scientifico, dalla scoperta alla valutazione.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

CAReDiO: Cultural Alignment via Representativeness and Distinctiveness Guided Data Optimization

Il paper introduce CAReDiO, un innovativo framework di ottimizzazione dei dati che, massimizzando la rappresentatività e la distintività culturale attraverso obiettivi teorico-informativi, permette di allineare efficientemente modelli linguistici a 15 diverse culture utilizzando un numero ridotto di campioni di addestramento.

Jing Yao, Xiaoyuan Yi, Jindong Wang, Zhicheng Dou, Xing Xie2026-03-09💬 cs.CL

RM-R1: Reward Modeling as Reasoning

Il paper introduce i Reasoning Reward Models (ReasRMs), in particolare la famiglia RM-R1, che trasformano la modellazione delle ricompense in un compito di ragionamento tramite un meccanismo di "catena di rubriche" e un addestramento su due fasi, ottenendo prestazioni superiori rispetto a modelli proprietari e open-weight più grandi su diversi benchmark.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI