From Statistical Fidelity to Clinical Consistency: Scalable Generation and Auditing of Synthetic Patient Trajectories

该研究提出了一种结合高保真生成与大规模自动审计的集成管道,利用大语言模型有效消除了合成电子健康记录中的临床不一致性,在确保隐私安全的同时显著提升了合成数据在下游任务中的实用性能。

Guanglin Zhou, Armin Catic, Motahare Shabestari, Matthew Young, Chaiquan Li, Katrina Poppe, Sebastiano Barbieri2026-03-10🤖 cs.LG

Regression Models Meet Foundation Models: A Hybrid-AI Approach to Practical Electricity Price Forecasting

本文提出了名为 FutureBoosting 的混合 AI 框架,通过将冻结的时间序列基础模型生成的预测特征融入回归模型,有效克服了单一模型在捕捉跨变量关联与历史驱动因素方面的局限,从而在电价预测任务中显著提升了预测精度与可解释性。

Yunzhong Qiu, Binzhu Li, Hao Wei, Shenglin Weng, Chen Wang, Zhongyi Pei, Mingsheng Long, Jianmin Wang2026-03-10🤖 cs.LG

Safe Transformer: An Explicit Safety Bit For Interpretable And Controllable Alignment

本文提出了一种名为"Safe Transformer"的模块化方法,通过在 Transformer 层间插入包含显式安全位的离散信息瓶颈,利用对比学习实现安全决策的可解释性与可控制性,仅需轻量级微调即可在保持生成能力的同时显著降低攻击成功率。

Jingyuan Feng, Andrew Gambardella, Gouki Minegishi, Takeshi Kojima, Yusuke Iwasawa, Yutaka Matsuo2026-03-10🤖 cs.LG

PolyBlocks: A Compiler Infrastructure for AI Chips and Programming Frameworks

本文介绍了 PolyBlocks,这是一个基于 MLIR 的模块化编译器基础设施,通过组合轻量级仿射分析与启发式成本模型自动执行多级分块、融合及算子映射等优化,实现了从高层框架到特定 AI 芯片的高效代码生成,并在 NVIDIA GPU 上的实验表明其性能可媲美甚至超越 Torch Inductor 和 XLA。

Uday Bondhugula, Akshay Baviskar, Navdeep Katel, Vimal Patel, Anoop JS, Arnab Dutta2026-03-10🤖 cs.LG

Rank-Factorized Implicit Neural Bias: Scaling Super-Resolution Transformer with FlashAttention

该论文提出了秩分解隐式神经偏置(RIB)以替代传统的相对位置偏置,从而在超分辨率 Transformer 中启用高效的 FlashAttention 并支持更大窗口与数据集的扩展,最终在显著提升重建质量(Urban100×2 达 35.63 dB PSNR)的同时,将训练和推理时间分别缩短了 2.1 倍和 2.9 倍。

Dongheon Lee, Seokju Yun, Jaegyun Im, Youngmin Ro2026-03-10🤖 cs.LG