From Mice to Trains: Amortized Bayesian Inference on Graph Data

该论文提出了一种将 amortized Bayesian inference(ABI)框架适配于图数据的两阶段方法,通过结合置换不变的图编码器与灵活的后验估计网络,实现了对节点、边及图级别参数的高效、无似然贝叶斯推断,并在合成数据及生物和物流领域的真实数据上验证了其参数恢复与校准性能。

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian Bürkner2026-03-10🤖 cs.LG

DevBench: A Realistic, Developer-Informed Benchmark for Code Generation Models

DevBench 是一个基于真实开发者遥测数据构建的代码生成基准测试,旨在通过涵盖六种语言和六类任务的 1800 个评估实例,在避免训练数据污染的同时,从功能正确性、语义推理及实际效用等多维度对大语言模型进行更具生态效度的评估与诊断。

Pareesa Ameneh Golnari, Adarsh Kumarappan, Wen Wen, Xiaoyu Liu, Gabriel Ryan, Yuting Sun, Shengyu Fu, Elsie Nallipogu2026-03-10🤖 cs.LG

ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

本文提出了 ELSA 框架,通过融合行为感知客户端聚类、资源自适应模型分割以及基于计算草图与语义子空间正交扰动的轻量级通信机制,有效解决了资源受限边缘网络中大规模语言模型在数据异构、设备不稳定及隐私风险下的分层联邦微调难题。

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

该论文提出了一种面向 FPGA 的连续流数据率感知 CNN 推理架构,通过交错低数据率信号、共享硬件单元及优化并行化策略,解决了卷积层和池化层导致的数据率下降问题,从而在实现接近 100% 硬件利用率的同时显著降低了逻辑资源消耗,使得在单块 FPGA 上部署 MobileNet 等复杂网络成为可能。

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario Garrido2026-03-10🤖 cs.LG

MeanCache: From Instantaneous to Average Velocity for Accelerating Flow Matching Inference

本文提出了名为 MeanCache 的训练无关缓存框架,通过利用缓存的 Jacobian-向量积构建平均速度以替代瞬时速度,并配合轨迹稳定性调度策略,在 FLUX.1、Qwen-Image 和 HunyuanVideo 等模型上实现了显著加速(最高达 4.56 倍)的同时保持了优于现有基线的生成质量。

Huanlin Gao, Ping Chen, Fuyuan Shi, Ruijia Wu, Li YanTao, Qiang Hui, Yuren You, Ting Lu, Chao Tan, Shaoan Zhao, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian2026-03-10🤖 cs.LG

Transferable Graph Condensation from the Causal Perspective

该论文提出了一种名为 TGCC 的基于因果不变性的可迁移图数据集压缩方法,通过提取域不变因果特征并结合谱域增强对比学习,有效解决了现有方法在跨任务和跨域场景中泛化能力不足的问题,显著提升了压缩数据集的性能。

Huaming Du, Yijie Huang, Su Yao, Yiying Wang, Yueyang Zhou, Jingwen Yang, Jinshi Zhang, Han Ji, Yu Zhao, Guisong Liu, Hegui Zhang, Carl Yang, Gang Kou2026-03-10🤖 cs.LG

In-Run Data Shapley for Adam Optimizer

该论文针对现有“运行中”数据 Shapley 方法因依赖 SGD 线性假设而无法适配 Adam 优化器的局限,提出了一种名为"Adam-Aware In-Run Data Shapley"的新方法,通过引入固定状态假设下的效用重定义及线性化幽灵近似技术,在保持接近标准训练吞吐量的同时,实现了对 Adam 优化器下数据贡献的高保真度(相关系数>0.99)且可扩展的精准评估。

Meng Ding, Zeqing Zhang, Di Wang, Lijie Hu2026-03-10🤖 cs.LG

Thickening-to-Thinning: Reward Shaping via Human-Inspired Learning Dynamics for LLM Reasoning

该论文提出了受人类学习过程启发的 T2T(由厚变薄)动态奖励框架,通过在不正确尝试时鼓励“增厚”以扩展搜索空间、在正确后转为“变薄”以抑制冗余,有效解决了强化学习中的熵崩溃与过度冗长问题,显著提升了大语言模型在数学推理任务上的性能。

Wenze Lin, Zhen Yang, Xitai Jiang, Pony Ma, Gao Huang2026-03-10🤖 cs.LG

Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

该论文提出了一种名为径向 Müntz-Szász 网络(RMN)的新型神经网络架构,通过引入可学习的径向幂次基函数和极限稳定的对数原函数,有效解决了现有坐标可分离架构难以建模径向奇异场的问题,并在多项基准测试中以极少的参数量实现了远超传统 MLP 和 SIREN 的精度。

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG