Wrong Code, Right Structure: Learning Netlist Representations from Imperfect LLM-Generated RTL

该论文提出了一种利用大语言模型生成的功能不完备但结构正确的 RTL 代码来构建合成数据集的新框架,有效突破了电路网表示学习中真实标注数据稀缺的瓶颈,并证明了由此训练的模型在子电路边界识别和组件分类等任务上能媲美甚至超越基于高质量数据的现有方法。

Siyang Cai, Cangyuan Li, Yinhe Han, Ying WangWed, 11 Ma🤖 cs.AI

TrainDeeploy: Hardware-Accelerated Parameter-Efficient Fine-Tuning of Small Transformer Models at the Extreme Edge

本文提出了 TrainDeeploy 框架,该框架在异构超低功耗片上系统(SoC)上实现了首个支持 CNN 和 Transformer 模型的端到端设备端微调流水线,通过结合选择性分层微调与低秩适应(LoRA)等参数高效策略,显著降低了极端边缘设备上的计算与内存开销。

Run Wang, Victor J. B. Jung, Philip Wiese, Francesco Conti, Alessio Burrello, Luca BeniniWed, 11 Ma🤖 cs.LG

Nemo: A Low-Write-Amplification Cache for Tiny Objects on Log-Structured Flash Devices

本文提出了 Nemo,一种专为闪存设备上的微小对象设计的低写放大缓存系统,它通过增加哈希碰撞概率来提升集合填充率,并结合基于布隆过滤器的索引与混合热度追踪机制,在显著降低应用级写放大的同时,实现了高内存效率和低缺失率。

Xufeng Yang, Tingting Tan, Jingxin Hu, Congming Gao, Mingyang Liu, Tianyang Jiang, Jian Chen, Linbo Long, Yina Lv, Jiwu ShuWed, 11 Ma💻 cs

HaLoRA: Hardware-aware Low-Rank Adaptation for Large Language Models Based on Hybrid Compute-in-Memory Architecture

本文提出了硬件感知低秩适应(HaLoRA)方法,通过在混合存内计算架构中将预训练权重部署于易噪的 RRAM 而将 LoRA 分支部署于无噪 SRAM,并引入理论推导的额外损失函数以增强 LoRA 对噪声的鲁棒性,从而在大幅降低能耗(约降至 A100 的 3%)的同时显著提升了推理精度。

Taiqiang Wu, Chenchen Ding, Wenyong Zhou, Yuxin Cheng, Xincheng Feng, Shuqi Wang, Wendong Xu, Chufan Shi, Zhengwu Liu, Ngai WongTue, 10 Ma💬 cs.CL

HDLxGraph: Bridging Large Language Models and HDL Repositories via HDL Graph Databases

该论文提出了首个将硬件描述语言(HDL)固有图特征(如抽象语法树和数据流图)与检索增强生成(RAG)相结合的 HDLxGraph 框架,并发布了基于真实项目的 HDLSearch 基准数据集,有效解决了现有 RAG 在处理复杂 HDL 项目时面临的结构性与词汇性不匹配问题,显著提升了搜索、调试和代码补全的准确率。

Pingqing Zheng (Katie), Jiayin Qin (Katie), Fuqi Zhang (Katie), Niraj Chitla (Katie), Zishen Wan (Katie), Shang Wu (Katie), Yu Cao (Katie), Caiwen Ding (Katie), Yang (Katie), ZhaoTue, 10 Ma🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

该论文提出了一种面向 FPGA 的连续流数据率感知 CNN 推理架构,通过交错低数据率信号、共享硬件单元及优化并行化策略,解决了卷积层和池化层导致的数据率下降问题,从而在实现接近 100% 硬件利用率的同时显著降低了逻辑资源消耗,使得在单块 FPGA 上部署 MobileNet 等复杂网络成为可能。

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario GarridoTue, 10 Ma🤖 cs.LG

Mozart: Modularized and Efficient MoE Training on 3.5D Wafer-Scale Chiplet Architectures

受人类大脑模块化组织启发,Mozart 提出了一种面向 3.5D 晶圆级芯片架构的算法 - 硬件协同设计框架,通过专家分配策略、细粒度调度机制及异构模块自适应共置,有效解决了混合专家模型(MoE)训练中的稀疏性挑战并显著提升了大规模语言模型的并行化效率与资源利用率。

Shuqing Luo (Katie), Ye Han (Katie), Pingzhi Li (Katie), Jiayin Qin (Katie), Jie Peng (Katie), Yang (Katie), Zhao (Kevin), Yu (Kevin), Cao, Tianlong ChenTue, 10 Ma💻 cs

Explainable and Hardware-Efficient Jamming Detection for 5G Networks Using the Convolutional Tsetlin Machine

本文提出了一种基于卷积田鼠机(CTM)的轻量级、可解释且硬件高效的 5G 网络干扰检测方案,该方案在真实 5G 测试床上验证了其性能,相比传统卷积神经网络(CNN)在保持相当检测精度的同时显著提升了训练速度并降低了内存占用,且具备在 FPGA 边缘设备上部署的潜力。

Vojtech Halenka, Mohammadreza Amini, Per-Arne Andersen, Ole-Christoffer Granmo, Burak KantarciTue, 10 Ma🤖 cs.LG