Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression

Questo articolo analizza teoricamente il comportamento dell'algoritmo Expectation-Maximization nella regressione lineare mista sovrastimata, dimostrando che la velocità di convergenza e l'accuratezza statistica dipendono criticamente dall'equilibrio iniziale dei pesi di miscela, con risultati lineari e di precisione O((d/n)1/2)O((d/n)^{1/2}) per configurazioni sbilanciate e risultati sublineari di precisione O((d/n)1/4)O((d/n)^{1/4}) per configurazioni bilanciate.

Zhankun Luo, Abolfazl Hashemi2026-03-09🤖 cs.LG

Kernel VICReg for Self-Supervised Learning in Reproducing Kernel Hilbert Space

Il paper propone Kernel VICReg, un nuovo framework di apprendimento auto-supervisionato che trasporta l'obiettivo VICReg in uno Spazio di Hilbert a Nucleo Riproducente (RKHS) per catturare dipendenze non lineari e migliorare le prestazioni su dati con strutture complesse o campioni limitati, superando i limiti dei metodi basati su spazio euclideo.

M. Hadi Sepanj, Benyamin Ghojogh, Saed Moradi, Paul Fieguth2026-03-09🤖 cs.LG

One Model for All Tasks: Leveraging Efficient World Models in Multi-Task Planning

Il paper presenta ScaleZero, un modello unico basato su un'architettura Mixture-of-Experts e una strategia di scalatura dinamica dei parametri (DPS) che risolve i conflitti di gradino e ottimizza l'efficienza dei campioni nel pianificare compiti eterogenei, raggiungendo prestazioni paragonabili ad agenti specializzati con meno interazioni ambientali.

Yuan Pu, Yazhe Niu, Jia Tang, Junyu Xiong, Shuai Hu, Hongsheng Li2026-03-09🤖 cs.LG

VEGA: Electric Vehicle Navigation Agent via Physics-Informed Neural Operator and Proximal Policy Optimization

VEGA è un sistema di navigazione per veicoli elettrici che combina un operatore neurale informato dalla fisica per la stima dei parametri del veicolo e un agente di apprendimento per rinforzo basato su PPO per pianificare percorsi e fermate di ricarica, dimostrando un'efficienza superiore e una rapida generalizzazione su reti stradali globali.

Hansol Lim, Minhyeok Im, Jonathan Boyack, Jee Won Lee, Jongseong Brad Choi2026-03-09🤖 cs.LG

Spectral/Spatial Tensor Atomic Cluster Expansion with Universal Embeddings in Cartesian Space

Il paper introduce il Tensor Atomic Cluster Expansion (TACE), un modello di apprendimento automatico equivariante che unifica la modellazione scalare e tensoriale nello spazio cartesiano mediante tensori cartesiani irriducibili, offrendo un'alternativa efficiente e priva di accoppiamenti di Clebsch-Gordan che garantisce accuratezza, stabilità ed efficienza su una vasta gamma di sistemi, dalle molecole finite ai materiali estesi, inclusi dati reattivi e multi-fiducia.

Zemin Xu, Wenbo Xie, P. Hu2026-03-09🔬 cond-mat.mtrl-sci

C^2Prompt: Class-aware Client Knowledge Interaction for Federated Continual Learning

Il paper propone C²Prompt, un metodo innovativo per l'apprendimento continuo federato che supera le limitazioni delle tecniche basate su prompt esistenti migliorando la coerenza della conoscenza a livello di classe attraverso un meccanismo di compensazione della distribuzione locale e uno schema di aggregazione consapevole delle classi, ottenendo così prestazioni all'avanguardia nel mitigare l'oblio temporale e spaziale.

Kunlun Xu, Yibo Feng, Jiangmeng Li, Yongsheng Qi, Jiahuan Zhou2026-03-09🤖 cs.LG

Auto-Regressive U-Net for Full-Field Prediction of Shrinkage-Induced Damage in Concrete

Il documento presenta un approccio di deep learning basato su un'architettura duale che combina un U-Net auto-regressivo e una rete neurale convoluzionale per prevedere in modo efficiente l'evoluzione temporale del danno da ritiro nel calcestruzzo e le relative proprietà meccaniche, al fine di ottimizzare la progettazione delle miscele.

Liya Gaynutdinova, Petr Havlásek, Ondřej Rokoš, Fleur Hendriks, Martin Doškář2026-03-09🤖 cs.LG

Planner Aware Path Learning in Diffusion Language Models Training

Questo articolo introduce il Planner Aware Path Learning (PAPL), un nuovo metodo di addestramento per i modelli di linguaggio a diffusione che risolve la discrepanza tra l'inferenza pianificata e l'addestramento standard derivando un nuovo limite inferiore della verosimiglianza (P-ELBO) che allinea dinamicamente i processi di training e inferenza, ottenendo significativi miglioramenti nella generazione di proteine, testo e codice.

Fred Zhangzhi Peng, Zachary Bezemek, Jarrid Rector-Brooks, Shuibai Zhang, Anru R. Zhang, Michael Bronstein, Alexander Tong, Avishek Joey Bose2026-03-09🤖 cs.LG

Diffusion Alignment as Variational Expectation-Maximization

Il paper introduce DAV, un nuovo framework che formula l'allineamento dei modelli di diffusione come un processo iterativo di Massimizzazione Aspettazione-Variational (EM) con fasi di ricerca a tempo di test e affinamento del modello, ottimizzando le ricompense mantenendo la diversità sia per compiti continui che discreti.

Jaewoo Lee, Minsu Kim, Sanghyeok Choi, Inhyuck Song, Sujin Yun, Hyeongyu Kang, Woocheol Shin, Taeyoung Yun, Kiyoung Om, Jinkyoo Park2026-03-09🤖 cs.LG

Decoding Partial Differential Equations: Cross-Modal Adaptation of Decoder-only Models to PDEs

Questo articolo dimostra che, sebbene i modelli linguistici decoder-only siano inizialmente inferiori agli encoder-only nell'adattamento cross-modale per le equazioni differenziali parziali, l'introduzione di due nuove tecniche che mimano la bidirezionalità (Parallel Flipping e Sequence Doubling) permette di colmare il divario di prestazioni.

Paloma García-de-Herreros, Philipp Slusallek, Dietrich Klakow, Vagrant Gautam2026-03-09🤖 cs.LG