A Hybrid Residue Floating Numerical Architecture with Formal Error Bounds for High Throughput FPGA Computation

Este artigo apresenta a Arquitetura Numérica Híbrida de Resíduo Flutuante (HRFNA), um sistema formalmente definido com limites de erro rigorosos e implementação em FPGA que combina aritmética de resíduo livre de transporte com escalonamento de expoente leve, alcançando maior eficiência energética e throughput em comparação com a precisão de ponto flutuante IEEE 754 padrão.

Mostafa DarvishiWed, 11 Ma💻 cs

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Este artigo apresenta duas técnicas de software, Escalonamento Consciente de Estouro (OAS) e Escalonamento de Macro Bloco (MBS), que reduzem drasticamente a lacuna de precisão entre os formatos MXFP4 e NVFP4 em Grandes Modelos de Linguagem, permitindo que o padrão MXFP4 atinja acurácia quase equivalente ao NVFP4 sem exigir alterações no hardware.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu KimWed, 11 Ma🤖 cs.AI

Design Conductor: An agent autonomously builds a 1.5 GHz Linux-capable RISC-V CPU

O artigo apresenta o "Design Conductor", um agente autônomo capaz de projetar, verificar e gerar o layout final (GDSII) de uma CPU RISC-V Linux-compatível operando a 1,48 GHz em apenas 12 horas, partindo de um documento de requisitos e marcando a primeira vez que um agente autônomo construiu um processador completo do conceito à fabricação.

The Verkor Team, Ravi Krishna, Suresh Krishna, David ChinWed, 11 Ma🤖 cs.AI

CktEvo: Repository-Level RTL Code Benchmark for Design Evolution

O artigo apresenta o CktEvo, um benchmark e framework de referência que permite a otimização automática de nível de repositório em projetos RTL, utilizando modelos de linguagem para realizar edições que preservam a funcionalidade e melhoram métricas de Potência, Desempenho e Área (PPA) com base em feedback da cadeia de ferramentas.

Zhengyuan Shi, Jingxin Wang, Tairan Cheng, Changran Xu, Weikang Qian, Qiang XuWed, 11 Ma🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

O artigo apresenta o SiliconMind-V1, um framework multi-agente que utiliza geração de dados orientada a raciocínio e verificação baseada em testbenches para permitir que modelos de linguagem localmente ajustados gerem, testem e depurem designs RTL em Verilog com maior correção funcional e menor custo do que os métodos existentes.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung KungWed, 11 Ma🤖 cs.AI

AnalogToBi: Device-Level Analog Circuit Topology Generation via Bipartite Graph and Grammar Guided Decoding

O artigo apresenta o AnalogToBi, um framework que gera automaticamente topologias de circuitos analógicos em nível de dispositivo com alta validade e novidade, utilizando uma representação baseada em grafos bipartidos, decodificação guiada por gramática e tokens de controle funcional para superar as limitações de métodos anteriores.

Seungmin Kim, Mingun Kim, Yuna Lee, Yulhwa KimWed, 11 Ma💻 cs

KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

O artigo apresenta o KernelCraft, o primeiro benchmark que avalia a capacidade de agentes de IA de gerar e otimizar automaticamente kernels de baixo nível para aceleradores emergentes com instruções personalizadas, demonstrando que esses sistemas podem produzir código funcional e eficiente, reduzindo significativamente o tempo e o custo de desenvolvimento para novas arquiteturas de hardware.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren ZhaoWed, 11 Ma🤖 cs.LG

PhD Thesis Summary: Methods for Reliability Assessment and Enhancement of Deep Neural Network Hardware Accelerators

Esta tese de doutoramento apresenta métodos inovadores e economicamente eficientes para avaliar e melhorar a confiabilidade de aceleradores de hardware de redes neurais profundas, incluindo uma revisão sistemática da literatura, novas ferramentas analíticas e uma técnica de aprimoramento em tempo real chamada AdAM que equilibra eficiência computacional e tolerância a falhas.

Mahdi TaheriWed, 11 Ma🤖 cs.AI

Performance Analysis of Edge and In-Sensor AI Processors: A Comparative Review

Este artigo de revisão analisa o cenário de processadores de IA de ultra-baixo consumo, comparando arquiteturas heterogêneas, aceleradores neurais e processamento em sensor, e valida empiricamente essas abordagens através de benchmarks de um modelo de segmentação em três plataformas representativas (GAP9, STM32N6 e IMX500), demonstrando a superioridade do processamento em sensor em eficiência energética e latência.

Luigi Capogrosso, Pietro Bonazzi, Michele MagnoWed, 11 Ma🤖 cs.LG

ARKV: Adaptive and Resource-Efficient KV Cache Management under Limited Memory Budget for Long-Context Inference in LLMs

O artigo apresenta o ARKV, um framework leve e adaptativo que gerencia dinamicamente o cache KV em modelos de linguagem grandes sob orçamentos de memória restritos, alocando diferentes níveis de precisão aos tokens com base na importância e nas dinâmicas de atenção para reduzir o uso de memória em quatro vezes enquanto mantém a precisão em tarefas de contexto longo.

Jianlong Lei, Shashikant IlagerWed, 11 Ma🤖 cs.AI

Fair and Square: Replacing One Real Multiplication with a Single Square and One Complex Multiplication with Three Squares When Performing Matrix Multiplication and Convolutions

Este artigo demonstra que é possível substituir multiplicações reais e complexas por operações de quadrado em multiplicações de matrizes e convoluções, resultando em reduções significativas de recursos de hardware e permitindo novas arquiteturas como arrays sistólicos e núcleos tensoriais baseados em quadrados.

Vincenzo LiguoriWed, 11 Ma💻 cs

Measurement-Free Ancilla Recycling via Blind Reset: A Cross-Platform Study on Superconducting and Trapped-Ion Processors

Este estudo avalia a reutilização de ancilas sem medição via "blind reset" em processadores supercondutores e de íons aprisionados, demonstrando que a técnica pode reduzir a latência do ciclo lógico em até 38 vezes enquanto mantém a limpeza das ancilas, fornecendo diretrizes específicas para cada plataforma sobre quando essa estratégia é mais eficiente.

Sangkeum LeeWed, 11 Ma⚛️ quant-ph

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Este artigo apresenta um framework de compressão para Computação de Reservatório que utiliza um mecanismo de poda baseado em sensibilidade para otimizar o equilíbrio entre precisão do modelo e eficiência de hardware em implementações FPGA, demonstrando reduções significativas no consumo de energia e recursos sem degradação perceptível da acurácia.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

Adaptive Multi-Objective Tiered Storage Configuration for KV Cache in LLM Service

O artigo apresenta o Kareto, um otimizador que utiliza poda guiada por retornos decrescentes e ajuste adaptativo para gerenciar dinamicamente a configuração de armazenamento em camadas do cache KV em serviços de LLM, permitindo identificar configurações na fronteira de Pareto que melhoram significativamente o throughput, reduzem a latência ou diminuem os custos em comparação com estratégias estáticas.

Xianzhe Zheng, Zhengheng Wang, Ruiyan Ma, Rui Wang, Xiyu Wang, Rui Chen, Peng Zhang, Sicheng Pan, Zhangheng Huang, Chenxin Wu, Yi Zhang, Bo Cai, Kan Liu, Teng Ma, Yin Du, Dong Deng, Sai Wu, Guoyun Zhu, Wei Zhang, Feifei LiWed, 11 Ma💻 cs

The AetherFloat Family: Block-Scale-Free Quad-Radix Floating-Point Architectures for AI Accelerators

O artigo apresenta a família AetherFloat, uma arquitetura de ponto flutuante baseada em radix-4 e mantissa explícita projetada para aceleradores de IA que elimina a necessidade de lógica de escalonamento por bloco (Block-Scaling), oferecendo reduções significativas em área, potência e atraso de caminho crítico, enquanto utiliza arredondamento estocástico para mitigar gradientes que desaparecem.

Keita MorisakiWed, 11 Ma🤖 cs.LG