A Hybrid Residue Floating Numerical Architecture with Formal Error Bounds for High Throughput FPGA Computation

Questo articolo presenta l'architettura numerica ibrida HRFNA, un sistema basato su aritmetica residua e scalatura esponenziale che, grazie a una rigorosa fondazione matematica e a un'implementazione FPGA ottimizzata, offre un elevato throughput, una riduzione delle risorse e un'efficienza energetica superiore rispetto all'IEEE 754 FP32, mantenendo al contempo errori numerici strettamente limitati.

Mostafa DarvishiWed, 11 Ma💻 cs

Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Il paper introduce due tecniche software, Overflow-Aware Scaling e Macro Block Scaling, che riducono drasticamente il divario di accuratezza tra il formato MXFP4 e NVFP4 nei grandi modelli linguistici, rendendo MXFP4 un'alternativa pratica ed efficiente dal punto di vista hardware senza richiedere modifiche all'hardware.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu KimWed, 11 Ma🤖 cs.AI

CktEvo: Repository-Level RTL Code Benchmark for Design Evolution

Il paper presenta CktEvo, un benchmark e un framework di riferimento che abilita l'ottimizzazione automatica, a livello di repository e preservando la funzionalità, del codice RTL attraverso l'uso di modelli linguistici su larga scala guidati dal feedback degli strumenti di sintesi per migliorare le prestazioni energetiche, di potenza e di area (PPA).

Zhengyuan Shi, Jingxin Wang, Tairan Cheng, Changran Xu, Weikang Qian, Qiang XuWed, 11 Ma🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

Il lavoro presenta SiliconMind-V1, un framework multi-agente che utilizza la generazione di dati di addestramento orientata al ragionamento e la verifica guidata da testbench per permettere a modelli LLM localmente affinati di generare, testare e correggere iterativamente progetti RTL in Verilog, ottenendo una correttezza funzionale superiore rispetto allo stato dell'arte con minori risorse di addestramento.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung KungWed, 11 Ma🤖 cs.AI

KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

Il paper presenta KernelCraft, il primo benchmark che valuta la capacità di agenti LLM di generare e ottimizzare automaticamente kernel a basso livello per acceleratori emergenti con nuove ISAs, dimostrando come un flusso di lavoro guidato da feedback possa ridurre i costi di sviluppo e produrre kernel validi ed efficienti.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren ZhaoWed, 11 Ma🤖 cs.LG

PhD Thesis Summary: Methods for Reliability Assessment and Enhancement of Deep Neural Network Hardware Accelerators

Questa tesi di dottorato presenta metodi innovativi ed economici per valutare e migliorare l'affidabilità degli acceleratori hardware per reti neurali profonde, introducendo nuovi strumenti analitici, ottimizzando i compromessi tra efficienza e tolleranza ai guasti e sviluppando la tecnica AdAM per l'enhancement dell'affidabilità in tempo reale senza sovraccarico.

Mahdi TaheriWed, 11 Ma🤖 cs.AI

Fair and Square: Replacing One Real Multiplication with a Single Square and One Complex Multiplication with Three Squares When Performing Matrix Multiplication and Convolutions

Questo articolo dimostra che è possibile sostituire asintoticamente ogni moltiplicazione reale con un singolo quadrato e ogni moltiplicazione complessa con tre quadrati nelle moltiplicazioni di matrici e nelle convoluzioni, ottenendo così significativi risparmi di risorse hardware grazie alla minore complessità dei circuiti di elevamento al quadrato rispetto ai moltiplicatori.

Vincenzo LiguoriWed, 11 Ma💻 cs

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Questo articolo presenta un framework di compressione per il Reservoir Computing che, sfruttando un meccanismo di pruning basato sulla sensibilità, permette di esplorare sistematicamente i compromessi tra livelli di quantizzazione, tassi di pruning, accuratezza ed efficienza hardware, ottenendo significativi miglioramenti nell'efficienza computazionale e nelle risorse su FPGA senza degradare le prestazioni del modello.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco PlatznerWed, 11 Ma🤖 cs.AI

Adaptive Multi-Objective Tiered Storage Configuration for KV Cache in LLM Service

Il paper presenta Kareto, un ottimizzatore adattivo che risolve il problema di configurazione multi-obiettivo della memoria tiered per il KV cache nei servizi LLM, identificando efficientemente il fronte di Pareto per bilanciare costi, throughput e latenza e superando le strategie statiche con miglioramenti significativi nelle prestazioni.

Xianzhe Zheng, Zhengheng Wang, Ruiyan Ma, Rui Wang, Xiyu Wang, Rui Chen, Peng Zhang, Sicheng Pan, Zhangheng Huang, Chenxin Wu, Yi Zhang, Bo Cai, Kan Liu, Teng Ma, Yin Du, Dong Deng, Sai Wu, Guoyun Zhu, Wei Zhang, Feifei LiWed, 11 Ma💻 cs