DMD-augmented Unpaired Neural Schrödinger Bridge for Ultra-Low Field MRI Enhancement

Gli autori propongono un framework di traduzione neurale non accoppiato basato sul ponte di Schrödinger, potenziato da un allineamento distributivo guidato da diffusione e da un regolarizzatore per la preservazione anatomica, per migliorare la qualità delle immagini risonanza magnetica a ultra-basso campo (64 mT) rendendole comparabili a quelle a 3 T senza richiedere dati di addestramento accoppiati.

Youngmin Kim, Jaeyun Shin, Jeongchan Kim + 5 more2026-03-06💻 cs

One Size Does Not Fit All: Token-Wise Adaptive Compression for KV Cache

Il paper presenta DynaKV, un innovativo framework di post-addestramento per la compressione del cache KV che assegna dinamicamente tassi di compressione a livello di token in base al loro significato semantico, ottenendo così una riduzione significativa della memoria e prestazioni superiori rispetto alle tecniche esistenti, specialmente se combinato con metodi di pruning come SnapKV.

Liming Lu, Kaixi Qiu, Jiayu Zhou + 6 more2026-03-06💻 cs

Machine Learning for Complex Systems Dynamics: Detecting Bifurcations in Dynamical Systems with Deep Neural Networks

Questo studio propone le Equilibrium-Informed Neural Networks (EINN), un approccio basato sul deep learning che inverte il processo tradizionale di analisi delle biforcazioni utilizzando stati di equilibrio come input per inferire i parametri del sistema, consentendo così di rilevare in modo efficiente le soglie critiche e i punti di svolta in sistemi dinamici complessi.

Swadesh Pal, Roderick Melnik2026-03-06🔢 math

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

Il paper propone FedEMA-Distill, un metodo di apprendimento federato robusto ed efficiente che combina una media mobile esponenziale con la distillazione della conoscenza basata sui logit aggregati per mitigare l'eterogeneità dei dati, ridurre il carico di comunicazione e resistere ad attacchi avversari senza richiedere modifiche ai client.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

When Scaling Fails: Network and Fabric Effects on Distributed GPU Training Performance

Questo studio empirico dimostra che le prestazioni dell'addestramento distribuito su GPU su larga scala sono spesso dominate da fattori di rete e di fabric, come la topologia e la congestione, che causano un ritorno decrescente e comportamenti instabili non rilevati dagli strumenti di profilazione standard, fornendo al contempo principi diagnostici pratici per mitigare questi problemi.

Dinesh Gopalan, Ratul Ali2026-03-06💻 cs

Agent Memory Below the Prompt: Persistent Q4 KV Cache for Multi-Agent LLM Inference on Edge Devices

Questo paper presenta un sistema per l'inferenza multi-agente LLM su dispositivi edge che risolve i vincoli di memoria persistendo le cache KV quantizzate a 4 bit su disco, permettendo il ripristino diretto dello stato di attenzione e riducendo il tempo di primo token fino a 136 volte rispetto al ricalcolo completo, con un impatto minimo sulla qualità del modello.

Yakov Pyotr Shkolnikov2026-03-06💻 cs

CogGen: Cognitive-Load-Informed Fully Unsupervised Deep Generative Modeling for Compressively Sampled MRI Reconstruction

Il paper presenta CogGen, un modello generativo profondo completamente non supervisionato che migliora la ricostruzione della risonanza magnetica campionata in modo compresso regolando il "carico cognitivo" attraverso una strategia di apprendimento curricolare che passa gradualmente dal fitting dei dati a bassa frequenza a quelli ad alta frequenza, superando così i limiti di convergenza e di sovrapposizione dei metodi tradizionali.

Qingyong Zhu, Yumin Tan, Xiang Gu + 1 more2026-03-06💻 cs