KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

Le papier présente KernelCraft, le premier benchmark évaluant la capacité des agents LLM à générer et optimiser des noyaux bas niveau pour des accélérateurs émergents via un processus itératif guidé par des retours automatiques, démontrant ainsi leur potentiel pour réduire les coûts de développement sur de nouvelles architectures matérielles.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren ZhaoWed, 11 Ma🤖 cs.LG

Memory-Augmented Spiking Networks: Synergistic Integration of Complementary Mechanisms for Neuromorphic Vision

Cette étude démontre que l'intégration synergique de mécanismes complémentaires, notamment l'apprentissage contrastif supervisé et les réseaux récurrents hiérarchiques, au sein de réseaux de neurones à impulsions permet d'optimiser simultanément la précision, l'efficacité énergétique et la structure des représentations pour la vision neuromorphique.

Effiong Blessing, Chiung-Yi Tseng, Isaac Nkrumah, Junaid RehmanWed, 11 Ma🤖 cs.LG

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Cet article présente un cadre de compression pour le calcul en réservoir qui utilise un mécanisme d'élagage basé sur la sensibilité pour optimiser les compromis entre précision, efficacité matérielle et consommation de ressources dans les implémentations FPGA, tout en maintenant des performances élevées sur diverses tâches de séries temporelles.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

The AetherFloat Family: Block-Scale-Free Quad-Radix Floating-Point Architectures for AI Accelerators

Le papier présente la famille AetherFloat, une architecture de point flottant quad-radix sans mise à l'échelle par blocs conçue pour les accélérateurs d'IA, qui élimine la logique de mise à l'échelle dynamique grâce à une mantisse explicite et à une échelle de base 4, offrant ainsi des réductions significatives de surface, de puissance et de délai tout en nécessitant un ajustement quantifié pour l'inférence.

Keita MorisakiWed, 11 Ma🤖 cs.LG

Robust Parameter and State Estimation in Multiscale Neuronal Systems Using Physics-Informed Neural Networks

Cette étude propose un cadre basé sur les réseaux de neurones informés par la physique (PINN) permettant une estimation robuste des paramètres biophysiques et la reconstruction des états cachés dans des modèles neuronaux multiscales, surpassant les méthodes traditionnelles face aux non-linéarités et aux données partielles.

Changliang Wei, Yangyang Wang, Xueyu ZhuWed, 11 Ma🤖 cs.LG

Generalized Reduction to the Isotropy for Flexible Equivariant Neural Fields

Ce papier propose une réduction générale qui permet de transformer n'importe quelle fonction invariante sur un produit d'espaces en une fonction invariante sous l'action du sous-groupe d'isotropie, éliminant ainsi les contraintes structurelles des méthodes existantes pour les champs de réseaux neuronaux équivariants.

Alejandro García-Castellanos, Gijs Bellaard, Remco Duits, Daniel Pelt, Erik J BekkersWed, 11 Ma🤖 cs.AI

SPREAD: Subspace Representation Distillation for Lifelong Imitation Learning

Le papier présente SPREAD, un cadre d'apprentissage par imitation à vie qui utilise la décomposition en valeurs singulières pour préserver la géométrie des représentations de tâches dans des sous-espaces de faible rang et une distillation guidée par la confiance, permettant ainsi de surmonter l'oubli catastrophique et d'atteindre des performances de pointe sur le benchmark LIBERO.

Kaushik Roy, Giovanni D'urso, Nicholas Lawrance, Brendan Tidd, Peyman MoghadamWed, 11 Ma🤖 cs.LG

Multi-level meta-reinforcement learning with skill-based curriculum

Cet article propose un cadre d'apprentissage par renforcement méta multi-niveaux intégrant un curriculum basé sur des compétences, qui comprime efficacement les processus de décision markoviens en hiérarchisant les politiques pour réduire la stochasticité, accélérer la convergence et faciliter le transfert de compétences entre différents problèmes et niveaux de complexité.

Sichen Yang (Johns Hopkins University), Mauro Maggioni (Johns Hopkins University)Wed, 11 Ma🤖 cs.AI