LAGO: A Local-Global Optimization Framework Combining Trust Region Methods and Bayesian Optimization

Il paper introduce LAGO, un framework di ottimizzazione che integra l'ottimizzazione bayesiana globale potenziata dal gradiente con metodi di raffinamento locale basati su regioni di fiducia, selezionando dinamicamente tra le due strategie per garantire un'esplorazione efficiente dello spazio di progettazione senza compromettere la convergenza rapida nelle regioni promettenti.

Eliott Van Dieren, Tommaso Vanzan, Fabio Nobile2026-03-04🤖 cs.LG

Breaking the Prototype Bias Loop: Confidence-Aware Federated Contrastive Learning for Highly Imbalanced Clients

Il paper propone CAFedCL, un nuovo framework di apprendimento contrastivo federato che rompe il ciclo di bias dei prototipi causato dallo squilibrio delle classi attraverso un'aggregazione basata sulla fiducia, l'aumento generativo e la regolarizzazione geometrica, garantendo così migliori prestazioni e equità rispetto alle soluzioni esistenti.

Tian-Shuang Wu, Shen-Huan Lyu, Ning Chen + 4 more2026-03-04🤖 cs.LG

SEHFS: Structural Entropy-Guided High-Order Correlation Learning for Multi-View Multi-Label Feature Selection

Il paper propone SEHFS, un nuovo metodo per la selezione delle caratteristiche nell'apprendimento multi-vista multi-etichetta che utilizza l'entropia strutturale per modellare correlazioni di ordine superiore e un framework ibrido teoria dell'informazione-matrici per superare i limiti degli ottimi locali e migliorare le prestazioni.

Cheng Peng, Yonghao Li, Wanfu Gao + 2 more2026-03-04🤖 cs.LG

Generalized Bayes for Causal Inference

Questo articolo propone un quadro bayesiano generalizzato per l'inferenza causale che, evitando la modellazione esplicita della verosimiglianza e aggiornando direttamente le stime degli effetti causali tramite funzioni di perdita, trasforma gli stimatori esistenti in strumenti dotati di una completa quantificazione dell'incertezza, garantendo al contempo robustezza agli errori di stima delle variabili di disturbo e validità frequentista.

Emil Javurek, Dennis Frauen, Yuxin Wang + 1 more2026-03-04📊 stat

Reinforcement Learning with Symbolic Reward Machines

Il paper propone le Symbolic Reward Machines (SRM) e i relativi algoritmi di apprendimento QSRM e LSRM per superare i limiti delle Reward Machine tradizionali, consentendo l'elaborazione diretta delle osservazioni ambientali tramite formule simboliche senza richiedere etichette manuali, mantenendo al contempo prestazioni superiori rispetto ai metodi RL di base e paragonabili a quelle delle RM esistenti.

Thomas Krug, Daniel Neider2026-03-04🤖 cs.AI

Safe and Robust Domains of Attraction for Discrete-Time Systems: A Set-Based Characterization and Certifiable Neural Network Estimation

Questo articolo propone un nuovo quadro teorico e computazionale basato su funzioni di valore definite su spazi metrici e reti neurali fisicamente informate, per la caratterizzazione precisa e la stima certificabile dei domini di attrazione sicuri e robusti per sistemi non lineari discreti incerti soggetti a vincoli di stato.

Mohamed Serry, Maxwell Fitzsimmons, Jun Liu2026-03-04⚡ eess

On the Expressive Power of Transformers for Maxout Networks and Continuous Piecewise Linear Functions

Questo articolo dimostra che le reti Transformer possiedono un potere espressivo universale paragonabile alle reti maxout e ReLU, caratterizzando la loro capacità di approssimare funzioni lineari a tratti continue attraverso un numero di regioni lineari che cresce esponenzialmente con la profondità, grazie al fatto che i meccanismi di self-attention implementano operazioni di tipo max e i livelli feedforward realizzano trasformazioni affini.

Linyan Gu, Lihua Yang, Feng Zhou2026-03-04🤖 cs.AI

From Complex Dynamics to DynFormer: Rethinking Transformers for PDEs

Il paper presenta DynFormer, un operatore neurale innovativo che supera i limiti degli attuali Transformer applicati alle equazioni differenziali parziali integrando principi di dinamica complessa per separare le scale fisiche, riducendo drasticamente sia l'errore relativo che il consumo di memoria GPU attraverso meccanismi di attenzione strutturata e mixing frequenza locale-globale.

Pengyu Lai, Yixiao Chen, Dewu Yang + 3 more2026-03-04🌀 nlin