BD-Merging: Bias-Aware Dynamic Model Merging with Evidence-Guided Contrastive Learning

Il paper presenta BD-Merging, un framework di fusione di modelli non supervisionato e consapevole dei bias che, integrando una testa evidenziale per la modellazione dell'incertezza, un punteggio di discrepanza di adiacenza e un apprendimento contrastivo, migliora l'affidabilità e la robustezza dei modelli fusi in presenza di spostamenti della distribuzione dei dati durante il test.

Yuhan Xie, Chen Lyu2026-03-05🤖 cs.AI

Selecting Offline Reinforcement Learning Algorithms for Stochastic Network Control

Lo studio valuta diverse tecniche di apprendimento per rinforzo offline in un ambiente telecomunicazioni stocastico, dimostrando che il Conservative Q-Learning offre la maggiore robustezza e rappresenta la scelta predefinita più affidabile per la gestione dei reti future, sebbene i metodi basati su sequenze possano risultare competitivi in presenza di dati ad alto rendimento.

Nicolas Helson, Pegah Alizadeh, Anastasios Giovanidis2026-03-05🤖 cs.AI

How Predicted Links Influence Network Evolution: Disentangling Choice and Algorithmic Feedback in Dynamic Graphs

Il paper propone un quadro temporale basato su processi di Hawkes multivariati per distinguere le tendenze intrinseche di interazione dagli effetti di amplificazione algoritmica nelle reti dinamiche, introducendo una misura di bias istantaneo che cattura le dinamiche di rinforzo in tempo reale e dimostrandone l'affidabilità nel riflettere gli effetti del feedback algoritmico.

Mathilde Perez, Raphaël Romero, Jefrey Lijffijt + 1 more2026-03-05🤖 cs.LG

Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Il paper propone un vincolo di assertibilità ispirato a Brouwer per l'IA responsabile, che in contesti ad alto rischio obbliga i sistemi a restituire "Indeterminato" se non possono fornire un certificato pubblico e contestabile di legittimità, preservando così l'agenzia epistemica umana attraverso un'interfaccia a tre stati che separa l'entitlement interno dalla posizione pubblica.

Michael Jülich2026-03-05🤖 cs.AI

On the Learnability of Offline Model-Based Optimization: A Ranking Perspective

Questo lavoro sfida l'assunzione tradizionale che la precisione predittiva sia fondamentale per l'ottimizzazione basata su modelli offline, proponendo invece una prospettiva basata sul ranking che identifica lo spostamento distribuzionale come errore dominante e introduce un metodo di ranking consapevole della distribuzione che supera ventisette metodi esistenti, pur rivelando limiti intrinseci nell'evitare l'estrapolazione eccessivamente ottimistica.

Shen-Huan Lyu, Rong-Xi Tan, Ke Xue + 4 more2026-03-05🤖 cs.LG

Training-Free Rate-Distortion-Perception Traversal With Diffusion

Questo lavoro propone un framework senza addestramento che, sfruttando modelli di diffusione pre-addestrati e un modulo di codifica del canale inverso, permette di navigare l'intera superficie del compromesso tra velocità, distorsione e percezione (RDP) senza necessità di riaddestramento, offrendo una soluzione sia teoricamente fondata che empiricamente efficace per la compressione adattiva.

Yuhan Wang, Suzhi Bi, Ying-Jun Angela Zhang2026-03-05🤖 cs.LG