Information Theoretic Bayesian Optimization over the Probability Simplex
该论文提出了一种基于信息几何的-GaBO 算法族,通过构建反映概率单纯形黎曼几何的 Matérn 核函数及几何优化器,实现了在该非欧几里得约束域上对昂贵黑盒目标函数的数据高效优化,并在多项实际应用中展现出优于传统欧氏约束方法的性能。
4966 篇论文
该论文提出了一种基于信息几何的-GaBO 算法族,通过构建反映概率单纯形黎曼几何的 Matérn 核函数及几何优化器,实现了在该非欧几里得约束域上对昂贵黑盒目标函数的数据高效优化,并在多项实际应用中展现出优于传统欧氏约束方法的性能。
该论文提出了一种名为“上下文强化学习验证(In-Context RLVR)”的新方法,通过利用模型自身的上下文学习能力生成“证据增益”信号来隐式地根据推理质量对奖励进行重加权,从而在无需外部评估器的情况下解决传统 RLVR 可能强化低质量推理路径的问题,显著提升了数学基准测试中的准确率与推理质量。
该论文提出了一种受多重网格启发、可无缝集成到现有模型中的轻量级“平滑伪投影器”,通过抑制与标签无关的输入方向来修正 Transformer 模型的隐藏表示,从而在文本分类等任务中显著提升了训练动态和鲁棒性。
本文提出了一种基于高斯过程的统一分层多任务多保真度(H-MT-MF)框架,通过联合建模任务间相似性与保真度依赖性,有效解决了制造系统代理建模中数据需求大及多源异构数据利用不足的问题,显著提升了预测精度。
该论文提出了一种名为 HR-GAT 的层次化分辨率图注意力网络模型,利用地理空间数据有效解决空间自相关难题,在五个加拿大主要城市的测试中将其频谱需求预测精度较八种基准模型提升了 21%。
本文提出了梯度对齐稀疏微调(GAST)方法,通过统一优化策略在数据层和模型层两个维度上自适应地选择最具影响力的数据点与关键层,有效解决了现有参数高效微调方法忽视数据对不同层贡献差异的问题,并在实验中展现出优于基线的性能。
本文介绍了 CarbonBench,这是首个旨在通过零样本空间迁移学习评估全球碳通量上模型性能的标准基准,它利用来自全球 567 个通量塔站的 130 多万条观测数据,提供了分层评估协议、统一特征集及多种基线模型,以推动机器学习与地球系统科学的融合及下一代气候建模的发展。
该论文提出了一种名为 MSSR 的记忆感知自适应回放框架,通过估计样本级记忆强度并动态调整复习间隔,在持续微调大语言模型时有效缓解了灾难性遗忘问题,同时保持了快速适应能力,并在多项基准测试中显著优于现有方法。
本文提出了名为 OptEMA 的自适应指数移动平均优化器及其两个变体,通过引入闭环、无需 Lipschitz 常数的机制,在标准随机梯度下降假设下实现了噪声自适应的收敛率,并在零噪声情形下无需手动调整超参数即可达到近乎最优的确定性收敛速度。
该论文从谱分析和变分视角揭示了生成漂移与得分匹配之间的本质联系,通过线性化麦基恩 - 弗拉索夫动力学和形式化最优传输梯度流,不仅解释了高斯核的频域瓶颈并提出了指数带宽退火策略,还从理论层面证明了停止梯度算子在训练稳定性中的必要性。
本文提出了名为 SignalMC-MED 的多模态基准,利用包含 22,256 次就诊的同步单导联 ECG 和 PPG 数据评估生物信号基础模型,发现领域专用模型优于通用模型、多模态融合优于单模态输入,并揭示了长信号段、小模型及手工特征在特定场景下的优势。
该论文提出利用过拟合 - 欠拟合指示器(OUI)作为早期信号,通过分析 PPO 中隐藏神经元的激活模式变化来区分学习率设置,从而在训练初期高效筛选出最优策略并避免全量训练。
该论文提出了“神经调试器”这一新概念,通过微调大语言模型或从头预训练小模型,使其能够像传统调试器一样支持断点设置和步进操作,从而实现对 Python 程序正向执行预测与逆向状态推断的可靠建模,为构建具备模拟调试能力的智能体编程系统奠定了基础。
该论文通过引入具有层可组合性的均值归一化算子范数,将 AdamW 和 Muon 等优化器统一为矩阵算子范数下的最速下降法,从而提出了能实现宽度无关平滑度保证及跨宽度超参数迁移的 MOGA 优化器,并在 GPT-2 和 LLaMA 的大规模预训练中展现出比 Muon 更优的效率与稳定性。
该论文提出了 C2FMAE,一种通过语义、实例和像素三级粒度协同学习及渐进式掩码策略来解决自监督视觉预训练中全局语义与局部细节矛盾的新型分层掩码自编码器,并在大规模多粒度数据集上验证了其在多种视觉任务中的卓越性能。
该论文通过新颖的道德权衡数据集发现,与人类不同,推理过程能显著提升大语言模型的诚实度,其根本原因在于欺骗性回答在表征空间中处于亚稳态,而推理生成的思维链通过遍历该空间将模型推向更稳定的诚实默认状态。
该论文通过引入“词袋超叠加”(BOWS)实验环境,揭示了在真实数据中特征相关性可使干扰变为建设性,从而促使模型将特征按共激活模式排列以形成语义聚类和循环结构,弥补了传统超叠加理论仅关注稀疏无相关特征的不足。
该论文提出了任务感知调制与表示学习(TAM-RL)框架,通过结合时空表示学习、知识引导的编解码架构以及基于碳平衡方程的损失函数,有效克服了现有数据驱动方法在泛化性和区域偏差上的局限,显著提升了全球陆地碳通量上推的精度与鲁棒性。
本文提出了两种基于神经网络和在线学习的变化点检测方法,它们具有线性计算复杂度,在合成及真实数据集上的实验表明其性能优于现有方法,并证明了算法的收敛性及其在特定条件下优于离线方法的优势。
本文提出了一种半参数贝叶斯加法回归树(BART)的新方法,通过改进树生成机制来解决线性预测器与 BART 组件共享协变量时的非识别性与偏差问题,从而允许对主要关注的协变量进行复杂的交互建模,并在教育评估等实际应用中展现了优越性能。