Large Electron Model: A Universal Ground State Predictor

Il documento presenta il "Large Electron Model", un'unica rete neurale basata sull'architettura Fermi Sets che, sfruttando il principio variazionale, predice con precisione le funzioni d'onda degli stati fondamentali di sistemi elettronici interagenti fino a 50 particelle, generalizzando efficacemente su diversi parametri Hamiltoniani e superando le limitazioni della teoria del funzionale densità nella trattazione delle forti correlazioni elettroniche.

Timothy Zaklama, Max Geier, Liang Fu2026-03-04🔬 cond-mat

Diffusion-MPC in Discrete Domains: Feasibility Constraints, Horizon Effects, and Critic Alignment: Case study with Tetris

Questo studio analizza l'applicazione del controllo predittivo basato su diffusione (Diffusion-MPC) nel dominio discreto di Tetris, evidenziando come il mascheramento dei logit per vincoli di fattibilità e l'adeguata selezione dell'orizzonte di pianificazione siano cruciali per superare le sfide del disallineamento dei critic e dell'incertezza cumulativa, superando le prestazioni dei metodi di campionamento non vincolati.

Haochuan Kevin Wang2026-03-04🤖 cs.AI

From Fewer Samples to Fewer Bits: Reframing Dataset Distillation as Joint Optimization of Precision and Compactness

Il paper propone QuADD, un quadro unificato per la distillazione dei dataset che ottimizza congiuntamente il numero di campioni e la precisione dei dati tramite quantizzazione differenziabile, superando i metodi esistenti in termini di efficienza informativa e prestazioni su compiti di classificazione e gestione dei fasci 3GPP.

My H. Dinh, Aditya Sant, Akshay Malhotra + 2 more2026-03-04🤖 cs.AI

Fisher-Geometric Diffusion in Stochastic Gradient Descent: Optimal Rates, Oracle Complexity, and Information-Theoretic Limits

Il paper sviluppa una teoria geometrica di Fisher per la discesa del gradiente stocastica (SGD) che modella il rumore del mini-batch come una matrice intrinseca legata alla perdita, permettendo di derivare limiti minimassimo ottimali e garanzie di complessità che dipendono da una dimensione effettiva intrinseca e dal numero di condizione di Fisher/Godambe piuttosto che dalla dimensione ambientale euclidea.

Daniel Zantedeschi, Kumar Muthuraman2026-03-04📊 stat

Learning to Pay Attention: Unsupervised Modeling of Attentive and Inattentive Respondents in Survey Data

Questo lavoro propone un quadro unificato e senza etichette per rilevare i rispondenti disattenti nei sondaggi, dimostrando che l'efficacia del rilevamento dipende principalmente dalla struttura coerente dello strumento di indagine piuttosto che dalla complessità del modello, rivelando un allineamento critico tra i principi psicometrici di affidabilità e la rilevabilità algoritmica.

Ilias Triantafyllopoulos, Panos Ipeirotis2026-03-04🤖 cs.AI

Spectral Regularization for Diffusion Models

Il paper propone un framework di regolarizzazione spettrale a livello di perdita che, integrando funzioni di costo differenziabili nei domini di Fourier e wavelet durante l'addestramento dei modelli di diffusione senza modificarne l'architettura, migliora la qualità dei campioni generati bilanciando le frequenze e preservando la struttura multi-scala, specialmente ad alte risoluzioni.

Satish Chandran, Nicolas Roque dos Santos, Yunshu Wu + 2 more2026-03-04🤖 cs.LG

Can Computational Reducibility Lead to Transferable Models for Graph Combinatorial Optimization?

Questo articolo propone un modello neurale basato su GCON e funzioni di perdita energy-based che, sfruttando strategie di preaddestramento informate dalla riducibilità computazionale, dimostra la fattibilità di trasferire conoscenze e accelerare la convergenza tra diversi problemi di ottimizzazione combinatoria su grafi, un passo fondamentale verso la creazione di modelli fondazionali per tale ambito.

Semih Cantürk, Thomas Sabourin, Frederik Wenkel + 2 more2026-03-04🤖 cs.AI