KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

Il paper presenta KernelCraft, il primo benchmark che valuta la capacità di agenti LLM di generare e ottimizzare automaticamente kernel a basso livello per acceleratori emergenti con nuove ISAs, dimostrando come un flusso di lavoro guidato da feedback possa ridurre i costi di sviluppo e produrre kernel validi ed efficienti.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren ZhaoWed, 11 Ma🤖 cs.LG

Memory-Augmented Spiking Networks: Synergistic Integration of Complementary Mechanisms for Neuromorphic Vision

Questo studio dimostra che l'integrazione sinergica di meccanismi complementari, come l'apprendimento contrastivo supervisionato e le reti ricorrenti gerarchiche, in reti neurali a impulsi (SNN) supera i compromessi delle singole ottimizzazioni, raggiungendo prestazioni superiori in termini di accuratezza, efficienza energetica e organizzazione strutturale sul dataset N-MNIST.

Effiong Blessing, Chiung-Yi Tseng, Isaac Nkrumah, Junaid RehmanWed, 11 Ma🤖 cs.LG

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Questo articolo presenta un framework di compressione per il Reservoir Computing che, sfruttando un meccanismo di pruning basato sulla sensibilità, permette di esplorare sistematicamente i compromessi tra livelli di quantizzazione, tassi di pruning, accuratezza ed efficienza hardware, ottenendo significativi miglioramenti nell'efficienza computazionale e nelle risorse su FPGA senza degradare le prestazioni del modello.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

Robust Parameter and State Estimation in Multiscale Neuronal Systems Using Physics-Informed Neural Networks

Questo lavoro presenta un framework basato su reti neurali informate dalla fisica (PINN) che permette una stima robusta dei parametri biofisici e la ricostruzione degli stati nascosti in modelli neuronali multiscala, superando le limitazioni dei metodi tradizionali grazie alla sua efficacia anche con osservazioni parziali, rumorose e inizializzazioni non informative.

Changliang Wei, Yangyang Wang, Xueyu ZhuWed, 11 Ma🤖 cs.LG

Permutation-Equivariant 2D State Space Models: Theory and Canonical Architecture for Multivariate Time Series

Questo lavoro introduce il modello VI 2D SSM, un'architettura di spazio degli stati bidimensionale che garantisce l'equivarianza rispetto alle permutazioni nelle serie temporali multivariate, eliminando le dipendenze sequenziali artificiali tra le variabili e ottenendo prestazioni all'avanguardia grazie a una struttura teoricamente fondata su dinamiche locali e interazioni globali aggregate.

Seungwoo Jeong, Heung-Il SukWed, 11 Ma🤖 cs.AI

Generalized Reduction to the Isotropy for Flexible Equivariant Neural Fields

Questo lavoro dimostra che qualsiasi funzione GG-invariante su uno spazio prodotto X×MX \times M, dove GG agisce transitivamente su MM, può essere ridotta a un'invariante del sottogruppo di isotropia HH che agisce su XX, permettendo così di estendere i campi neurali equivarianti a spazi di condizionamento omogenei arbitrari rimuovendo i vincoli strutturali delle metodologie esistenti.

Alejandro García-Castellanos, Gijs Bellaard, Remco Duits, Daniel Pelt, Erik J BekkersWed, 11 Ma🤖 cs.AI

SPREAD: Subspace Representation Distillation for Lifelong Imitation Learning

Il paper introduce SPREAD, un framework per l'apprendimento per imitazione lifelong che utilizza la decomposizione ai valori singolari per allineare le rappresentazioni delle politiche in sottospazi a basso rango preservando la geometria intrinseca dei compiti, combinato con una strategia di distillazione guidata dalla confidenza, ottenendo così prestazioni all'avanguardia nel benchmark LIBERO mitigando l'oblio catastrofico.

Kaushik Roy, Giovanni D'urso, Nicholas Lawrance, Brendan Tidd, Peyman MoghadamWed, 11 Ma🤖 cs.LG