Conditional Rank-Rank Regression via Deep Conditional Transformation Models

该论文提出了一种基于深度条件变换模型(DCTM)和交叉拟合的改进型条件秩 - 秩回归方法,通过估计协变量调整后的条件秩来有效解决非线性、高阶交互及离散有序结果下的代际流动性测量难题,并建立了相应的渐近理论,在模拟与实证研究中均展现出优于传统方法的准确性与解释力。

Xiaoyi Wang, Long Feng, Zhaojun WangTue, 10 Ma🤖 cs.LG

A Distributed Gaussian Process Model for Multi-Robot Mapping

该论文提出了一种名为 DistGP 的分布式多机器人学习方法,它利用稀疏高斯过程模型和基于高斯信念传播的分布式训练机制,在仅依赖局部数据的情况下实现了与集中式模型相当的精度,且在动态连接、稀疏通信及持续学习场景下优于现有的树结构高斯过程和分布式神经网络优化器。

Seth Nabarro, Mark van der Wilk, Andrew J. DavisonTue, 10 Ma🤖 cs.LG

Reject, Resample, Repeat: Understanding Parallel Reasoning in Language Model Inference

本文通过粒子滤波(如序贯蒙特卡洛)的视角,为语言模型推理中的并行采样方法建立了理论框架,揭示了采样误差与奖励评估次数之间的非渐近关系,并指出了该方法在理论保证与最终准确率之间的根本局限。

Noah Golowich, Fan Chen, Dhruv Rohatgi, Raghav Singhal, Carles Domingo-Enrich, Dylan J. Foster, Akshay KrishnamurthyTue, 10 Ma🤖 cs.LG

Robust Transfer Learning with Side Information

本文提出了一种利用源域侧信息(如特征矩界、分布距离和密度比)构建估计中心不确定性集的转移学习框架,通过融合有限目标样本与侧信息来生成更紧致的不确定性集,从而在环境发生显著偏移时有效缓解传统分布鲁棒优化方法的过度保守问题,显著提升了目标域策略的样本效率与性能。

Akram S. Awad, Shihab Ahmed, Yue Wang, George K. AtiaTue, 10 Ma🤖 cs.LG

Amortizing Maximum Inner Product Search with Learned Support Functions

该论文提出了一种名为“摊销最大内积搜索”的基于学习的方法,通过训练输入凸神经网络(SupportNet)直接建模作为支撑函数的最大内积值,或训练向量值网络(KeyNet)直接回归最优键,从而利用梯度和欧拉定理等数学特性,高效地将固定分布查询与键集的匹配成本摊销化。

Theo X. Olausson, João Monteiro, Michal Klein, Marco CuturiTue, 10 Ma🤖 cs.LG

Explainable Condition Monitoring via Probabilistic Anomaly Detection Applied to Helicopter Transmissions

该论文提出了一种仅利用健康数据、基于贝叶斯视角的概率异常检测方法,通过量化不确定性并提供可解释性工具,在直升机传动系统等安全关键场景中实现了具有竞争力的故障检测与预警性能。

Aurelio Raffa Ugolini, Jessica Leoni, Valentina Breschi, Damiano Paniccia, Francesco Aldo Tucci, Luigi Capone, Mara TanelliTue, 10 Ma🤖 cs.LG