GOMA: Geometrically Optimal Mapping via Analytical Modeling for Spatial Accelerators

O artigo apresenta o GOMA, um framework de mapeamento globalmente ótimo para multiplicação de matrizes em aceleradores espaciais que utiliza modelagem analítica e abstração geométrica para resolver o problema de busca de mapeamento de forma eficiente, garantindo otimidade e superando significativamente as soluções atuais em termos de eficiência energética e tempo de execução.

Wulve Yang, Hailong Zou, Rui Zhou, Jionghao Zhang, Qiang Li, Gang Li, Yi Zhan, Shushan QiaoTue, 10 Ma💻 cs

Why Learn What Physics Already Knows? Realizing Agile mmWave-based Human Pose Estimation via Physics-Guided Preprocessing

Este artigo propõe uma abordagem de estimativa de pose humana baseada em ondas milimétricas que substitui módulos de pré-processamento puramente orientados a dados por princípios físicos explícitos, resultando em um modelo significativamente mais leve e eficiente que mantém a precisão competitiva e permite a execução em tempo real em dispositivos de baixo custo como o Raspberry Pi.

Shuntian Zheng, Jiaqi Li, Minzhe Ni, Xiaoman Lu, Yu GuanTue, 10 Ma💻 cs

Machine Learning on Heterogeneous, Edge, and Quantum Hardware for Particle Physics (ML-HEQUPP)

Este artigo apresenta uma visão comunitária para identificar e priorizar oportunidades de pesquisa e desenvolvimento em sistemas de aprendizado de máquina baseados em hardware heterogêneo, de borda e quântico, visando superar os desafios de aquisição e processamento de dados nas futuras experiências de física de partículas.

Julia Gonski (Sunny), Jenni Ott (Sunny), Shiva Abbaszadeh (Sunny), Sagar Addepalli (Sunny), Matteo Cremonesi (Sunny), Jennet Dickinson (Sunny), Giuseppe Di Guglielmo (Sunny), Erdem Yigit Ertorer (Sunny), Lindsey Gray (Sunny), Ryan Herbst (Sunny), Christian Herwig (Sunny), Tae Min Hong (Sunny), Benedikt Maier (Sunny), Maryam Bayat Makou (Sunny), David Miller (Sunny), Mark S. Neubauer (Sunny), Cristián Peña (Sunny), Dylan Rankin (Sunny), Seon-Hee (Sunny), Seo, Giordon Stark, Alexander Tapper, Audrey Corbeil Therrien, Ioannis Xiotidis, Keisuke Yoshihara, G Abarajithan, Sagar Addepalli, Nural Akchurin, Carlos Argüelles, Saptaparna Bhattacharya, Lorenzo Borella, Christian Boutan, Tom Braine, James Brau, Martin Breidenbach, Antonio Chahine, Talal Ahmed Chowdhury, Yuan-Tang Chou, Seokju Chung, Alberto Coppi, Mariarosaria D'Alfonso, Abhilasha Dave, Chance Desmet, Angela Di Fulvio, Karri DiPetrillo, Javier Duarte, Auralee Edelen, Jan Eysermans, Yongbin Feng, Emmett Forrestel, Dolores Garcia, Loredana Gastaldo, Julián García Pardiñas, Lino Gerlach, Loukas Gouskos, Katya Govorkova, Carl Grace, Christopher Grant, Philip Harris, Ciaran Hasnip, Timon Heim, Abraham Holtermann, Tae Min Hong, Gian Michele Innocenti, Koji Ishidoshiro, Miaochen Jin, Jyothisraj Johnson, Stephen Jones, Andreas Jung, Georgia Karagiorgi, Ryan Kastner, Nicholas Kamp, Doojin Kim, Kyoungchul Kong, Katie Kudela, Jelena Lalic, Bo-Cheng Lai, Yun-Tsung Lai, Tommy Lam, Jeffrey Lazar, Aobo Li, Zepeng Li, Haoyun Liu, Vladimir Lončar, Luca Macchiarulo, Christopher Madrid, Benedikt Maier, Zhenghua Ma, Prashansa Mukim, Mark S. Neubauer, Victoria Nguyen, Sungbin Oh, Isobel Ojalvo, Hideyoshi Ozaki, Simone Pagan Griso, Myeonghun Park, Christoph Paus, Santosh Parajuli, Benjamin Parpillon, Sara Pozzi, Ema Puljak, Benjamin Ramhorst, Amy Roberts, Larry Ruckman, Kate Scholberg, Sebastian Schmitt, Noah Singer, Eluned Anne Smith, Alexandre Sousa, Michael Spannowsky, Sioni Summers, Yanwen Sun, Daniel Tapia Takaki, Antonino Tumeo, Caterina Vernieri, Belina von Krosigk, Yash Vora, Linyan Wan, Michael H. L. S. Wang, Amanda Weinstein, Andy White, Simon Williams, Felix YuThu, 12 Ma⚛️ hep-ex

Architecture-Aware LLM Inference Optimization on AMD Instinct GPUs: A Comprehensive Benchmark and Deployment Study

Este estudo apresenta uma avaliação abrangente da inferência de LLMs em GPUs AMD Instinct MI325X, demonstrando que otimizações específicas da arquitetura (como o uso seletivo do runtime AITER e configurações de cache) são essenciais para maximizar o desempenho, alcançando altas taxas de processamento e estabilidade em workloads de texto e visão.

Athos GeorgiouThu, 12 Ma🤖 cs.AI

Multi-Agent Memory from a Computer Architecture Perspective: Visions and Challenges Ahead

Este artigo de posição enquadra a memória de sistemas multiagentes como um problema de arquitetura de computadores, propondo uma hierarquia de três camadas e destacando a consistência da memória como o desafio mais urgente para garantir a confiabilidade e escalabilidade desses sistemas.

Zhongming Yu, Naicheng Yu, Hejia Zhang, Wentao Ni, Mingrui Yin, Jiaying Yang, Yujie Zhao, Jishen ZhaoThu, 12 Ma🤖 cs.AI

Pooling Engram Conditional Memory in Large Language Models using CXL

Este artigo propõe o uso de pools de memória CXL para armazenar a memória condicional Engram em Grandes Modelos de Linguagem, integrando-a ao SGLang para oferecer uma solução de armazenamento escalável e econômica com desempenho de inferência próximo ao da memória DRAM.

Ruiyang Ma, Teng Ma, Zhiyuan Su, Hantian Zha, Xinpeng Zhao, Xuchun Shang, Xingrui Yi, Zheng Liu, Zhu Cao, An Wu, Zhichong Dou, Ziqian Liu, Daikang Kuang, Guojie LuoThu, 12 Ma💻 cs

Hardware Efficient Approximate Convolution with Tunable Error Tolerance for CNNs

O artigo propõe uma nova abordagem de "esparsidade suave" baseada em um proxy de bit significativo mais alto (MSB) integrada como instrução RISC-V personalizada, que reduz drasticamente as operações de multiplicação e acumulação (MACs) e o consumo de energia em CNNs para inferência em dispositivos de borda, superando significativamente os métodos tradicionais de esparsidade rígida sem perda de precisão.

Vishal Shashidhar, Anupam Kumari, Roy P PailyThu, 12 Ma🤖 cs.LG

In-Memory ADC-Based Nonlinear Activation Quantization for Efficient In-Memory Computing

Este artigo apresenta a Quantização K-Means com Supressão de Fronteira (BS-KMQ), uma nova abordagem de quantização não linear que reduz a resolução necessária de conversores analógico-digital em computação em memória, alcançando ganhos significativos em precisão, eficiência energética e velocidade em comparação com métodos existentes.

Shuai Dong, Junyi Yang, Biyan Zhou, Hongyang Shang, Gourav Datta, Arindam BasuThu, 12 Ma💻 cs

Reference Architecture of a Quantum-Centric Supercomputer

Este artigo apresenta uma arquitetura de referência e um roteiro para a evolução de supercomputadores centrados em quântica (QCSC), que integram processadores quânticos, GPUs e CPUs em três fases distintas para superar as limitações atuais de orquestração manual e permitir a execução eficiente de algoritmos híbridos em pesquisas aplicadas.

Seetharami Seelam, Jerry M. Chow, Antonio Córcoles, Sarah Sheldon, Tushar Mittal, Abhinav Kandala, Sean Dague, Ian Hincks, Hiroshi Horii, Blake Johnson, Michael Le, Hani Jamjoom, Jay M. GambettaThu, 12 Ma⚡ eess

Estimation of Energy-dissipation Lower-bounds for Neuromorphic Learning-in-memory

Este artigo deriva estimativas teóricas de limites inferiores para o consumo energético de otimizadores neuromórficos ideais que utilizam o paradigma de "aprendizado na memória" (LIM), estabelecendo métricas de eficiência energética independentes do modelo que dependem apenas do número de operações, tamanho do modelo, velocidade de convergência e precisão da solução.

Zihao Chen, Faiek Ahsan, Johannes Leugering, Gert Cauwenberghs, Shantanu ChakrabarttyMon, 09 Ma🤖 cs.AI

Linear Layouts: Robust Code Generation of Efficient Tensor Computation Using F2\mathbb{F}_2

Este artigo apresenta os "Linear Layouts", uma abordagem inovadora que modela layouts de tensores usando álgebra linear sobre F2\mathbb{F}_2 para permitir definições genéricas e conversões eficientes, otimizando a geração de código no Triton e reduzindo a complexidade do backend do compilador.

Keren Zhou, Mario Lezcano, Adam Goucher, Akhmed Rakhmati, Jeff Niu, Justin Lebar, Pawel Szczerbuk, Peter Bell, Phil Tillet, Thomas Raoux, Zahi MoudallalMon, 09 Ma💻 cs

Scalable Digital Compute-in-Memory Ising Machines for Robustness Verification of Binary Neural Networks

Este trabalho propõe uma máquina de Ising baseada em SRAM com computação em memória digital para reformular e resolver o problema de verificação de robustez de redes neurais binárias como uma otimização binária quadrática, alcançando aceleração e eficiência energética significativas ao utilizar soluções imperfeitas para identificar perturbações adversariais.

Madhav Vadlamani, Rahul Singh, Yuyao Kong, Zheng Zhang, Shimeng YuMon, 09 Ma💻 cs

LUMINA: LLM-Guided GPU Architecture Exploration via Bottleneck Analysis

O artigo apresenta o LUMINA, um framework de exploração arquitetônica de GPUs orientado por LLMs que utiliza análise de gargalos e regras auto-corrigidas para identificar designs superiores ao A100 com eficiência 17,5 vezes maior que métodos baseados em aprendizado de máquina, reduzindo drasticamente o custo de busca em espaços de design complexos.

Tao Zhang, Rui Ma, Shuotao Xu, Peng Cheng, Yongqiang XiongMon, 09 Ma🤖 cs.AI

A Persistent-State Dataflow Accelerator for Memory-Bound Linear Attention Decode on FPGA

Este artigo apresenta um acelerador em FPGA que elimina o gargalo de memória no processo de decodificação do mecanismo de atenção linear Gated DeltaNet, mantendo o estado recorrente em memória on-chip e alcançando uma velocidade 4,5 vezes superior e uma eficiência energética 60 vezes maior em comparação com GPUs de última geração.

Neelesh Gupta, Peter Wang, Rajgopal Kannan, Viktor K. PrasannaMon, 09 Ma🤖 cs.LG