A Survey on Decentralized Federated Learning

Questo lavoro presenta un'analisi sistematica dell'apprendimento federato decentralizzato (DFL) fino al 2026, proponendo una tassonomia unificata basata sulle sfide affrontate, valutando le pratiche di valutazione attuali e delineando future direzioni di ricerca per migliorare sicurezza, privacy e meccanismi di incentivo in ambienti privi di coordinatore centrale.

Edoardo Gabrielli, Anthony Di Pietro, Dario Fenoglio, Giovanni Pica, Gabriele TolomeiWed, 11 Ma🤖 cs.LG

Enhancing Computational Efficiency in Multiscale Systems Using Deep Learning of Coordinates and Flow Maps

Questo articolo presenta un approccio basato sull'apprendimento profondo che combina la scoperta di coordinate e mappe di flusso per migliorare l'efficienza computazionale nella simulazione di sistemi multiscala complessi, ottenendo alta accuratezza predittiva a costi ridotti su modelli come Fitzhugh-Nagumo e Kuramoto-Sivashinsky.

Asif Hamid, Danish Rafiq, Shahkar Ahmad Nahvi, Mohammad Abid BazazWed, 11 Ma🤖 cs.LG

Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Questo paper introduce un quadro unificato che modella la quantizzazione e la sparsificazione come rumore additivo, proponendo una trasformata di dequantizzazione basata sulla regressione ridge per fornire un percorso di gradiente ben definito che permette l'addestramento stabile di reti neurali ad alta efficienza con precisione arbitraria e livelli di sparsità estremi, superando i limiti degli approcci esistenti come lo Straight-Through Estimator.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew HowardWed, 11 Ma🤖 cs.AI

ARLBench: Flexible and Efficient Benchmarking for Hyperparameter Optimization in Reinforcement Learning

Il paper presenta ARLBench, un benchmark flessibile ed efficiente per l'ottimizzazione degli iperparametri nel reinforcement learning, progettato per facilitare il confronto tra diversi metodi di AutoRL riducendo drasticamente i requisiti computazionali necessari.

Jannis Becktepe, Julian Dierkes, Carolin Benjamins, Aditya Mohan, David Salinas, Raghu Rajan, Frank Hutter, Holger Hoos, Marius Lindauer, Theresa EimerWed, 11 Ma🤖 cs.LG

Unsupervised Representation Learning from Sparse Transformation Analysis

Questo articolo propone un metodo di apprendimento rappresentativo non supervisionato che, analizzando le trasformazioni sparse dei dati sequenziali tramite un modello di flusso probabilistico decomposto in campi vettoriali rotazionali e potenziali, genera rappresentazioni disaccoppiate basate su primitive di trasformazione indipendenti, ottenendo risultati all'avanguardia nella verosimiglianza dei dati e nell'approssimazione dell'equivarianza.

Yue Song, Thomas Anderson Keller, Yisong Yue, Pietro Perona, Max WellingWed, 11 Ma🤖 cs.LG

Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions

Questo lavoro propone un approccio basato su funzioni di barriera di controllo e ottimizzazione differenziabile per apprendere in modo efficiente e interpretabile le allocazioni di responsabilità degli agenti nelle interazioni multi-agente, permettendo di codificare fattori sociali e contestuali per garantire interazioni sicure ed efficienti.

Isaac Remy, David Fridovich-Keil, Karen LeungWed, 11 Ma🤖 cs.LG

Adaptive and Stratified Subsampling for High-Dimensional Robust Estimation

Questo articolo presenta due stimatori di subsampling, Adaptive Importance Sampling e Stratified Sub-sampling, che garantiscono una regressione robusta ad alta dimensionalità in presenza di rumore pesante, contaminazione e dipendenza temporale, colmando il divario tra teoria e algoritmo e fornendo intervalli di confidenza validi con prestazioni empiriche superiori rispetto ai metodi tradizionali.

Prateek Mittal, Joohi ChauhanWed, 11 Ma🤖 cs.LG

Scalable Message Passing Neural Networks: No Need for Attention in Large Graph Representation Learning

Il paper propone le Scalable Message Passing Neural Networks (SMPNNs), un'architettura che sostituisce il meccanismo di attenzione nei Transformer con la normalizzazione Pre-Layer e connessioni residue per creare GNN profondi e scalabili che superano le prestazioni dei Graph Transformers su grandi grafi senza i relativi costi computazionali, supportati da una nuova analisi teorica sull'oversmoothing.

Haitz Sáez de Ocáriz Borde, Artem Lukoianov, Anastasis Kratsios, Michael Bronstein, Xiaowen DongWed, 11 Ma🤖 cs.LG

SPDIM: Source-Free Unsupervised Conditional and Label Shift Adaptation in EEG

Il paper propone SPDIM, un nuovo framework di apprendimento geometrico efficiente in parametri che risolve il problema dell'adattamento di dominio senza sorgente (SFUDA) nei segnali EEG, superando i limiti dei metodi precedenti nell'affrontare sia lo spostamento condizionale che quello delle etichette (label shift) attraverso l'ottimizzazione su varietà Riemanniane.

Shanglin Li, Motoaki Kawanabe, Reinmar J. KoblerWed, 11 Ma🤖 cs.LG

Prognostics for Autonomous Deep-Space Habitat Health Management under Multiple Unknown Failure Modes

Questo articolo propone un framework di prognostica non supervisionato che, utilizzando dati di guasto non etichettati, identifica simultaneamente modalità di guasto latenti e seleziona sensori informativi per migliorare la previsione della vita utile residua negli habitat spaziali profondi autonomi.

Benjamin Peters, Ayush Mohanty, Xiaolei Fang, Stephen K. Robinson, Nagi GebraeelWed, 11 Ma🤖 cs.LG