On the Stability Connection Between Discrete-Time Algorithms and Their Resolution ODEs: Applications to Min-Max Optimisation

Questo lavoro stabilisce un rigoroso legame tra la stabilità esponenziale degli algoritmi di ottimizzazione discreta e quella delle loro corrispondenti equazioni differenziali ordinarie di risoluzione, applicando tale quadro teorico per dimostrare la stabilità di punti di equilibrio in diversi metodi di ottimizzazione min-max, tra cui GEG e TT-PPM, senza richiedere l'assunzione di invarianza dell'Hessiano.

Amir Ali Farzin, Yuen-Man Pun, Philipp Braun + 1 more2026-03-03⚡ eess

Rate-Distortion Signatures of Generalization and Information Trade-offs

Questo studio introduce un quadro teorico basato sulla teoria della distorsione del tasso per analizzare i compromessi tra accuratezza e robustezza nella visione artificiale e biologica, rivelando che, sebbene entrambi i sistemi seguano principi di compressione, gli esseri umani mostrano trade-off più flessibili rispetto alle reti neurali profonde, che operano in regimi più rigidi e fragili.

Leyla Roksan Caglar, Pedro A. M. Mediano, Baihan Lin2026-03-03🧬 q-bio

Jump Like A Squirrel: Optimized Execution Step Order for Anytime Random Forest Inference

Questo articolo propone un approccio "Jump Like A Squirrel" che ottimizza l'ordine di esecuzione dei singoli passi negli alberi decisionali per trasformare le foreste casuali in algoritmi "anytime", permettendo di ottenere previsioni di qualità crescente anche con tempo di esecuzione limitato, con la "Backward Squirrel Order" che si dimostra una soluzione euristica quasi ottimale.

Daniel Biebert, Christian Hakert, Kay Heider + 3 more2026-03-03📊 stat

Transform-Invariant Generative Ray Path Sampling for Efficient Radio Propagation Modeling

Il paper propone un framework di apprendimento automatico basato su Generative Flow Networks che, integrando un buffer di esperienza, una politica esplorativa uniforme e un mascheramento delle azioni basato sulla fisica, supera i limiti computazionali del ray tracing tradizionale per la modellazione della propagazione radio, garantendo velocità di calcolo fino a 1000 volte superiori mantenendo alta accuratezza.

Jérome Eertmans, Enrico M. Vitucci, Vittorio Degli-Esposti + 3 more2026-03-03⚡ eess

CHLU: The Causal Hamiltonian Learning Unit as a Symplectic Primitive for Deep Learning

Il paper propone il CHLU (Causal Hamiltonian Learning Unit), un nuovo primitivo di apprendimento profondo basato su una struttura hamiltoniana relativistica e integrazione simplettica, progettato per risolvere il compromesso tra stabilità e memoria nei modelli temporali conservando il volume dello spazio delle fasi e dimostrando capacità generative su MNIST.

Pratik Jawahar, Maurizio Pierini2026-03-03🔬 physics.app-ph