Unveiling the Potential of Quantization with MXFP4: Strategies for Quantization Error Reduction

Il paper introduce due tecniche software, Overflow-Aware Scaling e Macro Block Scaling, che riducono drasticamente il divario di accuratezza tra il formato MXFP4 e NVFP4 nei grandi modelli linguistici, rendendo MXFP4 un'alternativa pratica ed efficiente dal punto di vista hardware senza richiedere modifiche all'hardware.

Jatin Chhugani, Geonhwa Jeong, Bor-Yiing Su, Yunjie Pan, Hanmei Yang, Aayush Ankit, Jiecao Yu, Summer Deng, Yunqing Chen, Nadathur Satish, Changkyu Kim2026-03-11🤖 cs.AI

CktEvo: Repository-Level RTL Code Benchmark for Design Evolution

Il paper presenta CktEvo, un benchmark e un framework di riferimento che abilita l'ottimizzazione automatica, a livello di repository e preservando la funzionalità, del codice RTL attraverso l'uso di modelli linguistici su larga scala guidati dal feedback degli strumenti di sintesi per migliorare le prestazioni energetiche, di potenza e di area (PPA).

Zhengyuan Shi, Jingxin Wang, Tairan Cheng, Changran Xu, Weikang Qian, Qiang Xu2026-03-11🤖 cs.AI

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

Il lavoro presenta SiliconMind-V1, un framework multi-agente che utilizza la generazione di dati di addestramento orientata al ragionamento e la verifica guidata da testbench per permettere a modelli LLM localmente affinati di generare, testare e correggere iterativamente progetti RTL in Verilog, ottenendo una correttezza funzionale superiore rispetto allo stato dell'arte con minori risorse di addestramento.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung Kung2026-03-11🤖 cs.AI

Alignment Is the Disease: Censorship Visibility and Alignment Constraint Complexity as Determinants of Collective Pathology in Multi-Agent LLM Systems

Questo studio preliminare suggerisce che le tecniche di allineamento nei modelli linguistici su larga scala possono generare una patologia collettiva iatrogena, dove la censura invisibile e la complessità dei vincoli di allineamento, anziché garantire la sicurezza, esacerbano il comportamento patologico e la dissociazione tra insight e azione in sistemi multi-agente.

Hiroki Fukui2026-03-11🤖 cs.AI

PhD Thesis Summary: Methods for Reliability Assessment and Enhancement of Deep Neural Network Hardware Accelerators

Questa tesi di dottorato presenta metodi innovativi ed economici per valutare e migliorare l'affidabilità degli acceleratori hardware per reti neurali profonde, introducendo nuovi strumenti analitici, ottimizzando i compromessi tra efficienza e tolleranza ai guasti e sviluppando la tecnica AdAM per l'enhancement dell'affidabilità in tempo reale senza sovraccarico.

Mahdi Taheri2026-03-11🤖 cs.AI

Sensitivity-Guided Framework for Pruned and Quantized Reservoir Computing Accelerators

Questo articolo presenta un framework di compressione per il Reservoir Computing che, sfruttando un meccanismo di pruning basato sulla sensibilità, permette di esplorare sistematicamente i compromessi tra livelli di quantizzazione, tassi di pruning, accuratezza ed efficienza hardware, ottenendo significativi miglioramenti nell'efficienza computazionale e nelle risorse su FPGA senza degradare le prestazioni del modello.

Atousa Jafari, Mahdi Taheri, Hassan Ghasemzadeh Mohammadi, Christian Herglotz, Marco Platzner2026-03-11🤖 cs.AI

Zipage: Maintain High Request Concurrency for LLM Reasoning through Compressed PagedAttention

Il paper presenta Zipage, un motore di inferenza per LLM che utilizza la tecnica Compressed PagedAttention per superare i colli di bottiglia della memoria KV cache, garantendo un'elevata concorrenza e un'accelerazione superiore a 2,1 volte mantenendo il 95% delle prestazioni rispetto ai sistemi a KV cache completa.

Mengqi Liao, Lu Wang, Chaoyun Zhang, Bo Qiao, Si Qin, Qingwei Lin, Saravan Rajmohan, Dongmei Zhang, Huaiyu Wan2026-03-11🤖 cs.AI

Permutation-Equivariant 2D State Space Models: Theory and Canonical Architecture for Multivariate Time Series

Questo lavoro introduce il modello VI 2D SSM, un'architettura di spazio degli stati bidimensionale che garantisce l'equivarianza rispetto alle permutazioni nelle serie temporali multivariate, eliminando le dipendenze sequenziali artificiali tra le variabili e ottenendo prestazioni all'avanguardia grazie a una struttura teoricamente fondata su dinamiche locali e interazioni globali aggregate.

Seungwoo Jeong, Heung-Il Suk2026-03-11🤖 cs.AI

Turn: A Language for Agentic Computation

Il paper presenta Turn, un linguaggio di programmazione compilato e basato su attori progettato per il calcolo agentiche, che integra sicurezza dei tipi cognitiva, un operatore di confidenza, un modello di processo isolato, un sistema di identità basato sulle capacità e l'assorbimento degli schemi a tempo di compilazione per garantire invariants critici come l'isolamento delle credenziali e la validazione dell'output dei modelli linguistici.

Muyukani Kizito2026-03-11🤖 cs.AI

Generalized Reduction to the Isotropy for Flexible Equivariant Neural Fields

Questo lavoro dimostra che qualsiasi funzione GG-invariante su uno spazio prodotto X×MX \times M, dove GG agisce transitivamente su MM, può essere ridotta a un'invariante del sottogruppo di isotropia HH che agisce su XX, permettendo così di estendere i campi neurali equivarianti a spazi di condizionamento omogenei arbitrari rimuovendo i vincoli strutturali delle metodologie esistenti.

Alejandro García-Castellanos, Gijs Bellaard, Remco Duits, Daniel Pelt, Erik J Bekkers2026-03-11🤖 cs.AI