LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks

本文提出了 LoRA-Ensemble,一种基于低秩适应(LoRA)的参数高效隐式集成方法,它通过让多个集成成员共享预训练自注意力网络并仅使用独立的低秩投影矩阵,在显著降低计算和内存成本的同时,实现了超越现有隐式技术、媲美显式集成且校准更优的预测性能。

Dominik J. Mühlematter, Michelle Halbheer, Alexander Becker, Dominik Narnhofer, Helge Aasen, Konrad Schindler, Mehmet Ozgur Turkoglu2026-03-10🤖 cs.LG

Mini-batch Estimation for Deep Cox Models: Statistical Foundations and Practical Guidance

该论文建立了基于小批量随机梯度下降优化的深度 Cox 模型中“小批量最大偏似然估计量”(mb-MPLE)的统计理论框架,证明了其一致性、最优收敛速率及渐近正态性,并提供了关于学习率与批量比等超参数调优的实用指导,从而解决了大规模数据下标准估计量难以计算的问题。

Lang Zeng, Weijing Tang, Zhao Ren, Ying Ding2026-03-10🤖 cs.LG

Variational Learning of Gaussian Process Latent Variable Models through Stochastic Gradient Annealed Importance Sampling

本文提出了一种结合退火重要性采样与变分推断的算法,通过重参数化证据下界并构建中间分布序列,有效解决了高维复杂数据下高斯过程潜在变量模型中提案分布难以生成的问题,从而实现了更紧的变分界、更高的对数似然及更稳健的收敛。

Jian Xu, Shian Du, Junmei Yang, Qianli Ma, Delu Zeng, John Paisley2026-03-10🤖 cs.LG

From Model Explanation to Data Misinterpretation: A Cautionary Analysis of Post Hoc Explainers in Business Research

该研究通过对大量文献的综述和模拟实验,指出后验解释工具(如 SHAP 和 LIME)虽能解释模型预测,但因特征相关性和“拉什omon 效应”导致其难以可靠还原真实数据关系,因此警示商业研究不应将其用于假设验证,而应仅作为生成洞察的探索性工具。

Tong Wang (Jeffrey), Ronilo Ragodos (Jeffrey), Lu Feng (Jeffrey), Yu (Jeffrey), Hu2026-03-10🤖 cs.LG