Evolving Diffusion and Flow Matching Policies for Online Reinforcement Learning

Il paper presenta GoRL, un framework che risolve il compromesso tra stabilità di ottimizzazione e capacità rappresentativa nell'apprendimento per rinforzo online, decoupling l'ottimizzazione della politica da uno spazio latente trattabile e la generazione delle azioni in uno spazio espressivo, ottenendo prestazioni superiori su compiti di controllo continuo.

Chubin Zhang, Zhenglin Wan, Feng Chen, Fuchao Yang, Lang Feng, Yaxin Zhou, Xingrui Yu, Yang You, Ivor Tsang, Bo An2026-03-10🤖 cs.LG

Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability

Il documento presenta la Sparse Isotonic Shapley Regression (SISR), un nuovo framework unificato per l'IA spiegabile che supera i limiti dell'additività e della densità dei valori Shapley tradizionali, apprendendo simultaneamente una trasformazione monotona non lineare e imponendo vincoli di sparsità per fornire attribuzioni robuste, efficienti e teoricamente fondate in scenari complessi.

Jialai She2026-03-10🤖 cs.LG

ReDepth Anything: Test-Time Depth Refinement via Self-Supervised Re-lighting

Il paper introduce Re-Depth Anything, un framework di auto-supervisione a test-time che migliora l'estimazione della profondità monoculari fondendo modelli fondazionali con prior di diffusione su larga scala per affinare le mappe di profondità tramite ricreazione dell'illuminazione e Score Distillation Sampling, ottenendo risultati all'avanguardia senza richiedere etichette.

Ananta R. Bhattarai, Helge Rhodin2026-03-10🤖 cs.LG

Latent Sculpting for Zero-Shot Generalization: A Manifold Learning Approach to Out-of-Distribution Anomaly Detection

Il paper propone "Latent Sculpting", un approccio di apprendimento gerarchico che combina un encoder Transformer con una perdita di scultura latente binaria e un flusso autoregressivo mascherato per modellare esplicitamente la struttura geometrica dei dati, permettendo così di rilevare con successo anomalie fuori distribuzione e attacchi zero-day nel traffico di rete senza necessità di esempi di addestramento specifici.

Rajeeb Thapa Chhetri, Saurab Thapa, Avinash Kumar, Zhixiong Chen2026-03-10🤖 cs.LG

Certifying the Right to Be Forgotten: Primal-Dual Optimization for Sample and Label Unlearning in Vertical Federated Learning

Il paper propone FedORA, un algoritmo basato su ottimizzazione primale-duale che certifica l'efficacia dell'oblio dei dati (sia a livello di campioni che di etichette) nell'apprendimento federato verticale, garantendo la rimozione delle influenze dei dati sensibili con costi computazionali ridotti rispetto al riaddestramento completo.

Yu Jiang, Xindi Tong, Ziyao Liu, Xiaoxi Zhang, Kwok-Yan Lam, Chee Wei Tan2026-03-10🤖 cs.LG

Reliable Grid Forecasting: State Space Models for Safety-Critical Energy Systems

Questo studio introduce un framework di valutazione legibile agli operatori per la previsione del carico della rete elettrica, dimostrando che i modelli basati su spazi di stato (SSM) con integrazione meteorologica mirata offrono una maggiore affidabilità operativa rispetto alle metriche di accuratezza tradizionali, mentre evidenzia la necessità di vincoli specifici per evitare il rischio di "sicurezza finta" derivante da previsioni probabilistiche eccessivamente conservative.

Sunki Hong, Jisoo Lee2026-03-10⚡ eess

From Mice to Trains: Amortized Bayesian Inference on Graph Data

Questo lavoro adatta l'inferenza bayesiana ammortizzata ai dati grafici, proponendo una pipeline a due moduli che combina encoder grafici invariante per permutazione e stimatori neurali per effettuare un'inferenza rapida e senza verosimiglianza su parametri a livello di nodo, arco e grafo, con validazione su dati sintetici e reali nei campi della biologia e della logistica.

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian Bürkner2026-03-10🤖 cs.LG

ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

Il paper presenta ELSA, un framework innovativo che integra split learning e apprendimento federato gerarchico per ottimizzare il fine-tuning distribuito di modelli linguistici su reti edge, risolvendo le sfide di risorse limitate, eterogeneità dei dati e privacy attraverso clustering intelligente, partizionamento dinamico del modello e tecniche di comunicazione efficienti e sicure.

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

Questo lavoro presenta un'architettura CNN a flusso continuo e consapevole del tasso di dati per FPGA che risolve il problema del sottoutilizzo delle unità hardware nelle reti convoluzionali, garantendo un utilizzo vicino al 100% e permettendo l'implementazione di modelli complessi come MobileNet su un singolo dispositivo con elevata efficienza.

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario Garrido2026-03-10🤖 cs.LG