Rate-Distortion Signatures of Generalization and Information Trade-offs

Questo studio introduce un quadro teorico basato sulla teoria della distorsione del tasso per analizzare i compromessi tra accuratezza e robustezza nella visione artificiale e biologica, rivelando che, sebbene entrambi i sistemi seguano principi di compressione, gli esseri umani mostrano trade-off più flessibili rispetto alle reti neurali profonde, che operano in regimi più rigidi e fragili.

Leyla Roksan Caglar, Pedro A. M. Mediano, Baihan Lin2026-03-03🧬 q-bio

Jump Like A Squirrel: Optimized Execution Step Order for Anytime Random Forest Inference

Questo articolo propone un approccio "Jump Like A Squirrel" che ottimizza l'ordine di esecuzione dei singoli passi negli alberi decisionali per trasformare le foreste casuali in algoritmi "anytime", permettendo di ottenere previsioni di qualità crescente anche con tempo di esecuzione limitato, con la "Backward Squirrel Order" che si dimostra una soluzione euristica quasi ottimale.

Daniel Biebert, Christian Hakert, Kay Heider + 3 more2026-03-03📊 stat

Transform-Invariant Generative Ray Path Sampling for Efficient Radio Propagation Modeling

Il paper propone un framework di apprendimento automatico basato su Generative Flow Networks che, integrando un buffer di esperienza, una politica esplorativa uniforme e un mascheramento delle azioni basato sulla fisica, supera i limiti computazionali del ray tracing tradizionale per la modellazione della propagazione radio, garantendo velocità di calcolo fino a 1000 volte superiori mantenendo alta accuratezza.

Jérome Eertmans, Enrico M. Vitucci, Vittorio Degli-Esposti + 3 more2026-03-03⚡ eess

CHLU: The Causal Hamiltonian Learning Unit as a Symplectic Primitive for Deep Learning

Il paper propone il CHLU (Causal Hamiltonian Learning Unit), un nuovo primitivo di apprendimento profondo basato su una struttura hamiltoniana relativistica e integrazione simplettica, progettato per risolvere il compromesso tra stabilità e memoria nei modelli temporali conservando il volume dello spazio delle fasi e dimostrando capacità generative su MNIST.

Pratik Jawahar, Maurizio Pierini2026-03-03🔬 physics.app-ph

Probing Materials Knowledge in LLMs: From Latent Embeddings to Reliable Predictions

Lo studio rivela che l'affidabilità dei grandi modelli linguistici nelle scienze dei materiali dipende criticamente dal tipo di output richiesto, mostrando come il fine-tuning migliori la coerenza per i compiti simbolici ma non per quelli numerici, e che l'estrazione diretta degli embedding intermedi può superare i limiti delle risposte testuali, pur evidenziando significative variazioni di prestazioni nel tempo che minacciano la riproducibilità scientifica.

Vineeth Venugopal, Soroush Mahjoubi, Elsa Olivetti2026-03-03🔬 cond-mat.mtrl-sci

Quantitative Convergence of Wasserstein Gradient Flows of Kernel Mean Discrepancies

Questo studio stabilisce la convergenza quantitativa dei flussi gradiente di Wasserstein per le discrepanze di media kernel, fornendo nuovi risultati di esistenza, unicità e tassi di convergenza (globali esponenziali per s=1s=1 e locali polinomiali per s>1s>1) che si applicano al training di reti neurali a strato singolo e a sistemi di particelle interagenti, risolvendo questioni aperte sulla convergenza non quantitativa in questi contesti.

Lénaïc Chizat, Maria Colombo, Roberto Colombo + 1 more2026-03-03🔢 math