Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Este artigo apresenta duas técnicas de software, Escalonamento Consciente de Estouro (OAS) e Escalonamento de Macro Bloco (MBS), que reduzem drasticamente a lacuna de precisão entre os formatos MXFP4 e NVFP4 em Grandes Modelos de Linguagem, permitindo que o padrão MXFP4 atinja acurácia quase equivalente ao NVFP4 sem exigir alterações no hardware.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu Kim2026-03-11🤖 cs.AI

Design Conductor: An agent autonomously builds a 1.5 GHz Linux-capable RISC-V CPU

O artigo apresenta o "Design Conductor", um agente autônomo capaz de projetar, verificar e gerar o layout final (GDSII) de uma CPU RISC-V Linux-compatível operando a 1,48 GHz em apenas 12 horas, partindo de um documento de requisitos e marcando a primeira vez que um agente autônomo construiu um processador completo do conceito à fabricação.

The Verkor Team, Ravi Krishna, Suresh Krishna, David Chin2026-03-11🤖 cs.AI

CktEvo: Repository-Level RTL Code Benchmark for Design Evolution

O artigo apresenta o CktEvo, um benchmark e framework de referência que permite a otimização automática de nível de repositório em projetos RTL, utilizando modelos de linguagem para realizar edições que preservam a funcionalidade e melhoram métricas de Potência, Desempenho e Área (PPA) com base em feedback da cadeia de ferramentas.

Zhengyuan Shi, Jingxin Wang, Tairan Cheng, Changran Xu, Weikang Qian, Qiang Xu2026-03-11🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

O artigo apresenta o SiliconMind-V1, um framework multi-agente que utiliza geração de dados orientada a raciocínio e verificação baseada em testbenches para permitir que modelos de linguagem localmente ajustados gerem, testem e depurem designs RTL em Verilog com maior correção funcional e menor custo do que os métodos existentes.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung Kung2026-03-11🤖 cs.AI

Alignment Is the Disease: Censorship Visibility and Alignment Constraint Complexity as Determinants of Collective Pathology in Multi-Agent LLM Systems

Este estudo apresenta evidências preliminares de que técnicas de alinhamento em modelos de linguagem podem gerar patologias coletivas iatrogênicas, onde a censura invisível e a complexidade das restrições de alinhamento exacerbam comportamentos disfuncionais em sistemas multiagentes, sugerindo que as avaliações de segurança atuais podem não detectar esses efeitos adversos.

Hiroki Fukui2026-03-11🤖 cs.AI

PhD Thesis Summary: Methods for Reliability Assessment and Enhancement of Deep Neural Network Hardware Accelerators

Esta tese de doutoramento apresenta métodos inovadores e economicamente eficientes para avaliar e melhorar a confiabilidade de aceleradores de hardware de redes neurais profundas, incluindo uma revisão sistemática da literatura, novas ferramentas analíticas e uma técnica de aprimoramento em tempo real chamada AdAM que equilibra eficiência computacional e tolerância a falhas.

Mahdi Taheri2026-03-11🤖 cs.AI

ARKV: Adaptive and Resource-Efficient KV Cache Management under Limited Memory Budget for Long-Context Inference in LLMs

O artigo apresenta o ARKV, um framework leve e adaptativo que gerencia dinamicamente o cache KV em modelos de linguagem grandes sob orçamentos de memória restritos, alocando diferentes níveis de precisão aos tokens com base na importância e nas dinâmicas de atenção para reduzir o uso de memória em quatro vezes enquanto mantém a precisão em tarefas de contexto longo.

Jianlong Lei, Shashikant Ilager2026-03-11🤖 cs.AI

Measurement-Free Ancilla Recycling via Blind Reset: A Cross-Platform Study on Superconducting and Trapped-Ion Processors

Este estudo avalia a reutilização de ancilas sem medição via "blind reset" em processadores supercondutores e de íons aprisionados, demonstrando que a técnica pode reduzir a latência do ciclo lógico em até 38 vezes enquanto mantém a limpeza das ancilas, fornecendo diretrizes específicas para cada plataforma sobre quando essa estratégia é mais eficiente.

Sangkeum Lee2026-03-11⚛️ quant-ph

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Este artigo apresenta um framework de compressão para Computação de Reservatório que utiliza um mecanismo de poda baseado em sensibilidade para otimizar o equilíbrio entre precisão do modelo e eficiência de hardware em implementações FPGA, demonstrando reduções significativas no consumo de energia e recursos sem degradação perceptível da acurácia.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco Platzner2026-03-11🤖 cs.AI

Zipage: Maintain High Request Concurrency for LLM Reasoning through Compressed PagedAttention

O artigo apresenta o Zipage, um motor de inferência de LLM que utiliza a técnica Compressed PagedAttention para superar gargalos de memória e permitir alta concorrência em tarefas de raciocínio, alcançando mais de 2,1 vezes de aceleração com apenas 5% de perda de desempenho em relação à abordagem de KV cache completo.

Mengqi Liao, Lu Wang, Chaoyun Zhang, Bo Qiao, Si Qin, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang, Huaiyu Wan2026-03-11🤖 cs.AI

Permutation-Equivariant 2D State Space Models: Theory and Canonical Architecture for Multivariate Time Series

Este artigo propõe o modelo VI 2D SSM e sua arquitetura VI 2D Mamba, que estabelecem uma forma canônica de modelos de espaço de estado bidimensionais equivariantes à permutação para séries temporais multivariadas, eliminando dependências sequenciais desnecessárias entre variáveis e alcançando desempenho superior em diversas tarefas ao respeitar a simetria de troca inerente aos dados.

Seungwoo Jeong, Heung-Il Suk2026-03-11🤖 cs.AI

Hindsight Credit Assignment for Long-Horizon LLM Agents

O artigo apresenta o HCAPO, um novo framework que integra atribuição de crédito retrospectiva para superar os desafios de aprendizado em tarefas de longo prazo de agentes LLM, superando métodos existentes como o GRPO em benchmarks complexos ao refinar a estimativa de valores e melhorar a eficiência exploratória.

Hui-Ze Tan, Xiao-Wen Yang, Hao Chen, Jie-Jing Shao, Yi Wen, Yuteng Shen, Weihong Luo, Xiku Du, Lan-Zhe Guo, Yu-Feng Li2026-03-11🤖 cs.AI

Turn: A Language for Agentic Computation

O artigo apresenta o Turn, uma linguagem de programação compilada e baseada em atores projetada para software autônomo, que introduz garantias de nível de linguagem para segurança de tipos em inferência de LLMs, controle de fluxo baseado em confiança, isolamento de contexto, gestão segura de credenciais e absorção de esquemas em tempo de compilação, superando as limitações das abordagens atuais que tratam esses invariáveis apenas como convenções de aplicação.

Muyukani Kizito2026-03-11🤖 cs.AI

Generalized Reduction to the Isotropy for Flexible Equivariant Neural Fields

Este artigo demonstra que qualquer função invariante sob um grupo agindo transitivamente em um espaço produto pode ser reduzida a uma invariância do subgrupo de isotropia agindo apenas no outro fator, permitindo assim a extensão dos Campos Neurais Equivariantes para ações grupais arbitrárias e espaços de condicionamento homogêneos, eliminando as principais restrições estruturais dos métodos existentes.

Alejandro García-Castellanos, Gijs Bellaard, Remco Duits, Daniel Pelt, Erik J Bekkers2026-03-11🤖 cs.AI