PARWiS: Winner determination under shoestring budgets using active pairwise comparisons

Questo studio presenta e valuta le varianti estese dell'algoritmo PARWiS per la determinazione del vincitore tramite confronti a coppie attivi sotto vincoli di budget severi, dimostrando che l'approccio base e quello basato sul reinforcement learning superano le strategie di baseline su dataset sintetici e reali, sebbene l'integrazione di informazioni contestuali richieda ulteriori ottimizzazioni.

Shailendra Bhandari2026-03-03🤖 cs.LG

AgilePruner: An Empirical Study of Attention and Diversity for Adaptive Visual Token Pruning in Large Vision-Language Models

Il paper "AgilePruner" presenta un'analisi empirica che evidenzia i limiti dei metodi di pruning basati su attenzione e diversità nei Large Vision-Language Models, proponendo un meccanismo adattivo che combina dinamicamente queste strategie in base alla complessità dell'immagine per migliorare le prestazioni e ridurre le allucinazioni.

Changwoo Baek, Jouwon Song, Sohyeon Kim + 1 more2026-03-03🤖 cs.LG

MOSAIC: A Unified Platform for Cross-Paradigm Comparison and Evaluation of Homogeneous and Heterogeneous Multi-Agent RL, LLM, VLM, and Human Decision-Makers

Il paper presenta MOSAIC, una piattaforma open-source che unifica ambienti di apprendimento per agenti multipli permettendo il confronto equo e riproducibile tra paradigmi eterogenei come RL, LLM, VLM e decisori umani tramite un protocollo IPC isolato e un'interfaccia unificata.

Abdulhamid M. Mousa, Yu Fu, Rakhmonberdi Khajiev + 5 more2026-03-03🤖 cs.LG

The Impact of Battery Cell Configuration on Electric Vehicle Performance: An XGBoost-Based Classification with SHAP Interpretability

Questo studio utilizza un modello XGBoost e l'interpretazione SHAP per dimostrare che, sebbene un maggior numero di celle delle batterie migliori inizialmente le prestazioni di accelerazione dei veicoli elettrici, è necessario un equilibrio tra complessità del sistema e configurazione architettonica per ottimizzare le prestazioni complessive.

Santanam Wishal, Louis Filiepe Tio Jansel, Matthew Abednego Inkiriwang + 1 more2026-03-03🤖 cs.LG

JailNewsBench: Multi-Lingual and Regional Benchmark for Fake News Generation under Jailbreak Attacks

Il paper presenta JailNewsBench, il primo benchmark multilingue e regionale su larga scala per valutare la resilienza dei modelli linguistici di grandi dimensioni (LLM) contro la generazione di notizie false indotta da attacchi jailbreak, rivelando significativi squilibri nelle difese di sicurezza tra diverse lingue e aree geografiche.

Masahiro Kaneko, Ayana Niwa, Timothy Baldwin2026-03-03💬 cs.CL

Theoretical Perspectives on Data Quality and Synergistic Effects in Pre- and Post-Training Reasoning Models

Questo lavoro analizza teoricamente e verifica sperimentalmente come la qualità e la scala dei dati influenzino diversamente l'addestramento pre- e post-training dei modelli linguistici, dimostrando che il fine-tuning supervisionato beneficia di piccoli set di esempi difficili mentre il reinforcement learning richiede grandi volumi di dati meno complessi.

Adel Javanmard, Baharan Mirzasoleiman, Vahab Mirrokni2026-03-03📊 stat

I Can't Believe It's Not Robust: Catastrophic Collapse of Safety Classifiers under Embedding Drift

Lo studio rivela che i classificatori di sicurezza addestrati su embedding fissi subiscono un collasso catastrofico a causa della deriva delle rappresentazioni nei modelli di ragionamento istruiti, generando fallimenti silenziosi ad alta confidenza e rendendo paradossalmente più difficile proteggere i sistemi allineati rispetto a quelli di base.

Subramanyam Sahoo, Vinija Jain, Divya Chaudhary + 1 more2026-03-03💬 cs.CL

Nonconvex Latent Optimally Partitioned Block-Sparse Recovery via Log-Sum and Minimax Concave Penalties

Il paper propone due nuovi metodi di regolarizzazione non convessa, LogLOP-l2/l1 e AdaLOP-l1/l2, basati su formulazioni variazionali delle penalità log-sum e MCP per il recupero di segnali blocchi-sparsi con partizioni sconosciute, sviluppando algoritmi ADMM efficienti che superano gli approcci esistenti in termini di accuratezza e compatibilità con diverse funzioni di fedeltà ai dati.

Takanobu Furuhashi, Hiroki Kuroda, Masahiro Yukawa + 3 more2026-03-03📊 stat

Truth as a Trajectory: What Internal Representations Reveal About Large Language Model Reasoning

Il paper introduce "Truth as a Trajectory" (TaT), un metodo che analizza le variazioni geometriche degli stati nascosti tra i livelli dei modelli linguistici invece delle attivazioni statiche, permettendo di distinguere il ragionamento valido dai comportamenti spurii e superando i limiti dei metodi di spiegabilità tradizionali.

Hamed Damirchi, Ignacio Meza De la Jara, Ehsan Abbasnejad + 3 more2026-03-03💬 cs.CL