Polynomial Surrogate Training for Differentiable Ternary Logic Gate Networks

Il paper introduce l'addestramento con surrogati polinomiali (PST), un metodo scalabile che supera le limitazioni computazionali delle reti logiche differenziabili ternarie rappresentando i neuroni come polinomi, consentendo così un'addestramento più rapido, la scoperta di porte logiche funzionalmente diversificate e una gestione ottimale dell'incertezza tramite lo stato "UNKNOWN".

Sai Sandeep Damera, Ryan Matheu, Aniruddh G. Puranic + 1 more2026-03-03🤖 cs.LG

KROM: Kernelized Reduced Order Modeling

Il paper propone KROM, un framework di ordinamento ridotto basato su kernel che risolve rapidamente equazioni differenziali alle derivate parziali non lineari formulando la soluzione come un problema di recupero in uno spazio RKHS e accelerando i calcoli mediante sparsificazione della matrice di precisione, utilizzando kernel empirici derivati da librerie di snapshot per adattarsi alla struttura specifica del problema e superare le prestazioni dei kernel stazionari tradizionali.

Aras Bacho, Jonghyeon Lee, Houman Owhadi2026-03-03🤖 cs.LG

Quantifying Catastrophic Forgetting in IoT Intrusion Detection Systems

Questo studio propone un framework agnostico per l'apprendimento continuo nei sistemi di rilevamento delle intrusioni IoT basato su RPL, dimostrando attraverso un benchmark su 48 domini che gli approcci basati sul replay e sulla Sinaptic Intelligence mitigano efficacemente l'oblio catastrofico mantenendo un equilibrio tra plasticità, stabilità ed efficienza nelle risorse.

Sourasekhar Banerjee, David Bergqvist, Salman Toor + 2 more2026-03-03🤖 cs.LG

TENG-BC: Unified Time-Evolving Natural Gradient for Neural PDE Solvers with General Boundary Conditions

Il paper presenta TENG-BC, un risolutore ad alta precisione per equazioni differenziali alle derivate parziali dipendenti dal tempo che utilizza un gradiente naturale evolutivo per gestire in modo unificato e stabile condizioni al contorno generali, superando le limitazioni di accumulo di errore e di penalizzazione tipiche dei metodi neurali convenzionali.

Hongjie Jiang, Di Luo2026-03-03🤖 cs.LG

Exact and Asymptotically Complete Robust Verifications of Neural Networks via Quantum Optimization

Questo articolo presenta due modelli di ottimizzazione quantistica per la verifica robusta delle reti neurali, che offrono una formulazione esatta per le attivazioni piecewise-linear e un'approssimazione asintoticamente completa per quelle generali, integrando tecniche ibride quantistiche-classiche per garantire certificazioni precise in contesti critici.

Wenxin Li, Wenchao Liu, Chuan Wang + 4 more2026-03-03🔬 physics.optics

Physics-Aware Learnability: From Set-Theoretic Independence to Operational Constraints

Il paper propone la "fisica-consapevolezza dell'apprendibilità" (PL), un quadro che risolve le fragilità logiche e le indipendenze insiemistiche (come nel caso EMX) definendo l'apprendibilità rispetto a protocolli fisici ammissibili, trasformando così problemi continui in questioni discreti e decidibili attraverso la quantificazione delle risorse operative come precisione finita e copie quantistiche.

Jeongho Bang, Kyoungho Cho2026-03-03⚛️ quant-ph