KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

O artigo apresenta o KernelCraft, o primeiro benchmark que avalia a capacidade de agentes de IA de gerar e otimizar automaticamente kernels de baixo nível para aceleradores emergentes com instruções personalizadas, demonstrando que esses sistemas podem produzir código funcional e eficiente, reduzindo significativamente o tempo e o custo de desenvolvimento para novas arquiteturas de hardware.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren ZhaoWed, 11 Ma🤖 cs.LG

Performance Analysis of Edge and In-Sensor AI Processors: A Comparative Review

Este artigo de revisão analisa o cenário de processadores de IA de ultra-baixo consumo, comparando arquiteturas heterogêneas, aceleradores neurais e processamento em sensor, e valida empiricamente essas abordagens através de benchmarks de um modelo de segmentação em três plataformas representativas (GAP9, STM32N6 e IMX500), demonstrando a superioridade do processamento em sensor em eficiência energética e latência.

Luigi Capogrosso, Pietro Bonazzi, Michele MagnoWed, 11 Ma🤖 cs.LG

Memory-Augmented Spiking Networks: Synergistic Integration of Complementary Mechanisms for Neuromorphic Vision

Este artigo demonstra que a integração equilibrada de mecanismos complementares, como aprendizado contrastivo supervisionado, redes de Hopfield e redes recorrentes com portões hierárquicos, em Redes Neurais de Spiking resulta em melhorias significativas em precisão, eficiência energética e organização estrutural para visão neuromórfica, superando as abordagens de otimização isolada.

Effiong Blessing, Chiung-Yi Tseng, Isaac Nkrumah, Junaid RehmanWed, 11 Ma🤖 cs.LG

Hebbian-Oscillatory Co-Learning

O artigo apresenta o Hebbian-Oscillatory Co-Learning (HOC-L), um framework dinâmico unificado que integra plasticidade estrutural hebbiana em geometria hiperbólica com sincronização de fase oscilatória, utilizando um parâmetro de ordem macroscópico para regular o fortalecimento das conexões sinápticas apenas quando há coerência de fase suficiente, garantindo convergência teórica e eficiência computacional em arquiteturas neurais esparsas.

Hasi HaysWed, 11 Ma🤖 cs.LG

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Este artigo apresenta um framework de compressão para Computação de Reservatório que utiliza um mecanismo de poda baseado em sensibilidade para otimizar o equilíbrio entre precisão do modelo e eficiência de hardware em implementações FPGA, demonstrando reduções significativas no consumo de energia e recursos sem degradação perceptível da acurácia.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

The AetherFloat Family: Block-Scale-Free Quad-Radix Floating-Point Architectures for AI Accelerators

O artigo apresenta a família AetherFloat, uma arquitetura de ponto flutuante baseada em radix-4 e mantissa explícita projetada para aceleradores de IA que elimina a necessidade de lógica de escalonamento por bloco (Block-Scaling), oferecendo reduções significativas em área, potência e atraso de caminho crítico, enquanto utiliza arredondamento estocástico para mitigar gradientes que desaparecem.

Keita MorisakiWed, 11 Ma🤖 cs.LG

Robust Parameter and State Estimation in Multiscale Neuronal Systems Using Physics-Informed Neural Networks

Este trabalho desenvolveu uma estrutura de Redes Neurais Informadas por Física (PINN) para a reconstrução robusta de variáveis de estado ocultas e a estimativa de parâmetros biofísicos em modelos neuronais multiescala, superando as limitações de métodos tradicionais que dependem de solvers numéricos ao lidar com não-linearidades fortes e dados observacionais parciais e ruidosos.

Changliang Wei, Yangyang Wang, Xueyu ZhuWed, 11 Ma🤖 cs.LG

Permutation-Equivariant 2D State Space Models: Theory and Canonical Architecture for Multivariate Time Series

Este artigo propõe o modelo VI 2D SSM e sua arquitetura VI 2D Mamba, que estabelecem uma forma canônica de modelos de espaço de estado bidimensionais equivariantes à permutação para séries temporais multivariadas, eliminando dependências sequenciais desnecessárias entre variáveis e alcançando desempenho superior em diversas tarefas ao respeitar a simetria de troca inerente aos dados.

Seungwoo Jeong, Heung-Il SukWed, 11 Ma🤖 cs.AI

Hindsight Credit Assignment for Long-Horizon LLM Agents

O artigo apresenta o HCAPO, um novo framework que integra atribuição de crédito retrospectiva para superar os desafios de aprendizado em tarefas de longo prazo de agentes LLM, superando métodos existentes como o GRPO em benchmarks complexos ao refinar a estimativa de valores e melhorar a eficiência exploratória.

Hui-Ze Tan, Xiao-Wen Yang, Hao Chen, Jie-Jing Shao, Yi Wen, Yuteng Shen, Weihong Luo, Xiku Du, Lan-Zhe Guo, Yu-Feng LiWed, 11 Ma🤖 cs.AI

Generalized Reduction to the Isotropy for Flexible Equivariant Neural Fields

Este artigo demonstra que qualquer função invariante sob um grupo agindo transitivamente em um espaço produto pode ser reduzida a uma invariância do subgrupo de isotropia agindo apenas no outro fator, permitindo assim a extensão dos Campos Neurais Equivariantes para ações grupais arbitrárias e espaços de condicionamento homogêneos, eliminando as principais restrições estruturais dos métodos existentes.

Alejandro García-Castellanos, Gijs Bellaard, Remco Duits, Daniel Pelt, Erik J BekkersWed, 11 Ma🤖 cs.AI

SPREAD: Subspace Representation Distillation for Lifelong Imitation Learning

O artigo apresenta o SPREAD, um framework inovador para aprendizado de imitação vitalício que utiliza decomposição em valores singulares para preservar a geometria das representações de tarefas em subespaços de baixa dimensão e uma estratégia de destilação guiada por confiança, superando métodos existentes ao mitigar o esquecimento catastrófico e alcançar desempenho de ponta no benchmark LIBERO.

Kaushik Roy, Giovanni D'urso, Nicholas Lawrance, Brendan Tidd, Peyman MoghadamWed, 11 Ma🤖 cs.LG

SoftJAX & SoftTorch: Empowering Automatic Differentiation Libraries with Informative Gradients

O artigo apresenta as bibliotecas de código aberto SoftJAX e SoftTorch, que fornecem implementações unificadas e completas de relaxações "suaves" diferenciáveis para substituir operações rígidas em JAX e PyTorch, permitindo o uso de gradientes informativos em otimização baseada em gradiente.

Anselm Paulus, A. René Geist, Vít Musil, Sebastian Hoffmann, Onur Beker, Georg MartiusWed, 11 Ma🤖 cs.LG