Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Questo articolo presenta un innovativo pipeline di apprendimento attivo a due stadi per il riconoscimento automatico del parlato che combina il clustering degli x-vector per la diversità dei campioni e un metodo bayesiano basato sul dropout Monte Carlo per l'incertezza, ottimizzando significativamente l'efficienza del labeling e le prestazioni del modello.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

Transforming Agency. On the mode of existence of Large Language Models

Il paper sostiene che i Large Language Models, pur non possedendo un'agenzia autonoma secondo le teorie della mente incarnata a causa della mancanza di individualità, normatività e asimmetria interazionale, agiscono come interlocutori linguistici che, attraverso un'incarnazione testuale e computazionale, trasformano radicalmente l'agenzia umana generando forme ibride di "agenzia di mezzo".

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

FALCON: Future-Aware Learning with Contextual Object-Centric Pretraining for UAV Action Recognition

Il paper introduce FALCON, un approccio di preaddestramento auto-supervisionato unificato per il riconoscimento delle azioni dei droni che, integrando la mascheratura orientata agli oggetti e la ricostruzione futura a doppio orizzonte, risolve lo squilibrio spaziale tipico dei video aerei migliorando significativamente l'accuratezza e riducendo i tempi di inferenza rispetto ai metodi supervisionati.

Ruiqi Xian, Xiyang Wu, Tianrui Guan, Xijun Wang, Boqing Gong, Dinesh Manocha2026-03-09🤖 cs.AI

L0-Regularized Quadratic Surface Support Vector Machines

Questo lavoro propone varianti sparse delle macchine a vettori di supporto quadratiche (QSVM) basate sulla regolarizzazione 0\ell_0 per migliorare l'interpretabilità e la generalizzazione, sviluppando un algoritmo di decomposizione della penalità che garantisce condizioni di ottimalità e dimostrando l'efficacia del metodo attraverso esperimenti numerici su dataset pubblici e reali.

Ahmad Mousavi, Ramin Zandvakili, Zheming Gao2026-03-09🤖 cs.LG

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Questo sondaggio offre una panoramica strutturata delle tecniche, dei dataset e delle sfide etiche legate all'uso dei modelli linguistici su larga scala per assistere i ricercatori in tutte le fasi del ciclo di vita scientifico, dalla scoperta alla valutazione.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

FragFM: Hierarchical Framework for Efficient Molecule Generation via Fragment-Level Discrete Flow Matching

Il paper introduce FragFM, un nuovo framework gerarchico basato sul flow matching discreto a livello di frammenti che, grazie a un autoencoder da grossolano a fine e a una strategia stocastica, genera molecole in modo efficiente e scalabile con un migliore controllo delle proprietà, validato anche su un nuovo benchmark per prodotti naturali chiamato NPGen.

Joongwon Lee, Seonghwan Kim, Seokhyun Moon, Hyunwoo Kim, Woo Youn Kim2026-03-09🤖 cs.AI

CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Il paper introduce CAPS, un metodo innovativo che utilizza VQ-VAE per raggruppare i dati in cluster e applicare un campionamento prioritario contestuale, migliorando significativamente l'efficienza dei dati, la generalizzazione e le prestazioni di guida autonoma in scenari complessi.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG

From Tokenizer Bias to Backbone Capability: A Controlled Study of LLMs for Time Series Forecasting

Questo studio controllato rivela che, sebbene i modelli linguistici di grandi dimensioni (LLM) mostrino una certa promessa per le previsioni delle serie temporali, le loro prestazioni rimangono limitate e non superano costantemente quelle di modelli specificamente addestrati su grandi dataset temporali, specialmente quando si utilizzano coppie di tokenizzatori e detokenizzatori non distorti ottenuti tramite pre-addestramento su larga scala.

Xinyu Zhang, Shanshan Feng, Xutao Li, Kenghong Lin, Fan Li, Pengfei Jia2026-03-09🤖 cs.AI

The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Questo studio adotta un approccio centrato sulle vittime per analizzare come l'attuale governance sociotecnica dell'IA fallisca nel regolamentare l'"ecosistema tecnico malevolo" di modelli open-source e software che facilitano la creazione di immagini intime non consensuali generate dall'IA, evidenziando le carenze delle pratiche di governance attuali.

Michelle L. Ding, Harini Suresh2026-03-09🤖 cs.AI

FourierSpecNet: Neural Collision Operator Approximation Inspired by the Fourier Spectral Method for Solving the Boltzmann Equation

Il documento presenta FourierSpecNet, un framework ibrido che combina il metodo spettrale di Fourier con l'apprendimento profondo per approssimare efficientemente l'operatore di collisione nell'equazione di Boltzner, garantendo accuratezza, convergenza e una significativa riduzione dei costi computazionali sia per collisioni elastiche che anelastiche.

Jae Yong Lee, Gwang Jae Jung, Byung Chan Lim, Hyung Ju Hwang2026-03-09🤖 cs.AI

Scalable Multi-Task Learning for Particle Collision Event Reconstruction with Heterogeneous Graph Neural Networks

Questo articolo propone un'architettura innovativa di Rete Neurale su Grafo Eterogeneo (HGNN) che, sfruttando un apprendimento multi-task e livelli di potatura del grafo, migliora in modo scalabile la ricostruzione degli eventi di collisione e l'associazione dei vertici di particelle in un ambiente simile all'esperimento LHCb.

William Sutcliffe, Marta Calvi, Simone Capelli + 5 more2026-03-09⚛️ hep-ex

RM-R1: Reward Modeling as Reasoning

Il paper introduce i Reasoning Reward Models (ReasRMs), in particolare la famiglia RM-R1, che trasformano la modellazione delle ricompense in un compito di ragionamento tramite un meccanismo di "catena di rubriche" e un addestramento su due fasi, ottenendo prestazioni superiori rispetto a modelli proprietari e open-weight più grandi su diversi benchmark.

Xiusi Chen, Gaotang Li, Ziqi Wang, Bowen Jin, Cheng Qian, Yu Wang, Hongru Wang, Yu Zhang, Denghui Zhang, Tong Zhang, Hanghang Tong, Heng Ji2026-03-09🤖 cs.AI