NEST: Network- and Memory-Aware Device Placement For Distributed Deep Learning

Il paper presenta NEST, un framework di posizionamento dei dispositivi per l'addestramento distribuito di deep learning che unifica la parallelizzazione, la modellazione della topologia di rete e la fattibilità della memoria tramite programmazione dinamica strutturata, ottenendo fino a 2,43 volte una maggiore velocità di elaborazione rispetto alle soluzioni esistenti.

Irene Wang, Vishnu Varma Venkata, Arvind Krishnamurthy, Divya Mahajan2026-03-10🤖 cs.LG

Joint 3D Gravity and Magnetic Inversion via Rectified Flow and Ginzburg-Landau Guidance

Questo articolo presenta un nuovo framework per l'inversione congiunta 3D di gravità e magnetismo basato su flussi rettificati e un regolarizzatore di Ginzburg-Landau, progettato per superare i limiti delle soluzioni deterministiche tradizionali catturando l'intera distribuzione delle possibili densità sotterranee.

Dhruman Gupta (Ashoka University), Yashas Shende (Ashoka University), Aritra Das (Ashoka University), Chanda Grover Kamra (Ashoka University), Debayan Gupta (Ashoka University)2026-03-10🤖 cs.LG

Contextual Counterfactual Credit Assignment for Multi-Agent Reinforcement Learning in LLM Collaboration

Il paper presenta \textbf{\texttt{C3}}, un metodo di assegnazione del credito controfattuale contestuale che risolve il problema della diffusione del segnale di ricompensa nei sistemi multi-agente basati su LLM isolando l'impatto causale dei singoli messaggi tramite replay a continuazione fissa e una baseline leave-one-out, migliorando così le prestazioni terminali e la fedeltà dell'assegnazione del credito.

Yanjun Chen, Yirong Sun, Hanlin Wang, Xinming Zhang, Xiaoyu Shen, Wenjie Li, Wei Zhang2026-03-10🤖 cs.LG

Symmetry-Constrained Language-Guided Program Synthesis for Discovering Governing Equations from Noisy and Partial Observations

Il paper presenta SymLang, un framework unificato che combina grammatiche vincolate dalla simmetria, sintesi di programmi guidata da modelli linguistici e selezione bayesiana di modelli per scoprire equazioni governative interpretabili e fisicamente coerenti a partire da osservazioni rumorose e parziali, superando significativamente gli approcci esistenti in termini di accuratezza strutturale e stabilità.

Mirza Samad Ahmed Baig, Syeda Anshrah Gillani2026-03-10🤖 cs.LG

Stochastic Attention via Langevin Dynamics on the Modern Hopfield Energy

Il paper propone l'attenzione stocastica, un metodo di campionamento senza addestramento basato sulla dinamica di Langevin applicata all'energia di Hopfield moderna, che trasforma i meccanismi di attenzione esistenti in generatori diversificati e controllabili tramite temperatura, superando le prestazioni dei modelli appresi senza richiedere modifiche architetturali.

Abdulrahman Alswaidan, Jeffrey D. Varner2026-03-10🤖 cs.LG

Physics-informed AI Accelerated Retention Analysis of Ferroelectric Vertical NAND: From Day-Scale TCAD to Second-Scale Surrogate Model

Questo studio presenta un modello surrogato basato su un operatore neurale informato dalla fisica (PINO) che accelera di oltre 10.000 volte l'analisi della ritenzione dei dati nei transistor a effetto di campo ferroelettrico verticali (Fe-VNAND) rispetto alle simulazioni TCAD tradizionali, consentendo una rapida ottimizzazione dei dispositivi mantenendo l'accuratezza fisica.

Gyujun Jeong (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA), Sungwon Cho (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA), Minji Shon (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA), Namhoon Kim (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA), Woohyun Hwang (Semiconductor Research and Development, Samsung Electronics Co., Ltd, South Korea), Kwangyou Seo (Semiconductor Research and Development, Samsung Electronics Co., Ltd, South Korea), Suhwan Lim (Semiconductor Research and Development, Samsung Electronics Co., Ltd, South Korea), Wanki Kim (Semiconductor Research and Development, Samsung Electronics Co., Ltd, South Korea), Daewon Ha (Semiconductor Research and Development, Samsung Electronics Co., Ltd, South Korea), Prasanna Venkatesan (NVIDIA, Santa Clara, CA, USA), Kihang Youn (NVIDIA, Santa Clara, CA, USA), Ram Cherukuri (NVIDIA, Santa Clara, CA, USA), Yiyi Wang (NVIDIA, Santa Clara, CA, USA), Suman Datta (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA), Asif Khan (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA), Shimeng Yu (School of Electrical and Computer Engineering, Georgia Institute of Technology, GA, USA)2026-03-10🤖 cs.LG

Learning From Design Procedure To Generate CAD Programs for Data Augmentation

Il paper propone un nuovo paradigma di aumento dei dati che, ispirandosi alle procedure di progettazione industriale, utilizza modelli linguistici di grandi dimensioni per generare programmi CAD più diversificati e complessi, arricchendo i dataset esistenti con forme organiche e curvature basate su spline tipiche dei progetti industriali reali.

Yan-Ying Chen, Dule Shu, Matthew Hong, Andrew Taber, Jonathan Li, Matthew Klenk2026-03-10🤖 cs.LG

CN-CBF: Composite Neural Control Barrier Function for Safe Robot Navigation in Dynamic Environments

Il paper propone il CN-CBF, un metodo di controllo neurale composito che combina più funzioni di barriera addestrate tramite la raggiungibilità di Hamilton-Jacobi per garantire una navigazione robotica sicura ed efficace in ambienti dinamici, superando le prestazioni dei metodi esistenti sia in simulazione che in esperimenti hardware.

Bojan Derajic, Sebastian Bernhard, Wolfgang Hönig2026-03-10🤖 cs.LG

NerVE: Nonlinear Eigenspectrum Dynamics in LLM Feed-Forward Networks

Il paper introduce NerVE, un framework unificato basato sulla dinamica degli autovalori che analizza come le reti feed-forward nei grandi modelli linguistici organizzano il flusso informativo nello spazio latente, rivelando come le non linearità e la geometria dell'ottimizzatore governino l'utilizzo delle dimensioni latenti e fornendo metriche predittive per migliorare le scelte architetturali e di ottimizzazione.

Nandan Kumar Jha, Brandon Reagen2026-03-10🤖 cs.LG