FluenceFormer: Transformer-Driven Multi-Beam Fluence Map Regression for Radiotherapy Planning
本文提出了名为 FluenceFormer 的 Transformer 驱动框架,通过两阶段几何感知回归与物理信息损失函数,有效解决了放疗计划中流强图预测的病态逆问题,并在前列腺 IMRT 数据集上显著提升了结构保真度与能量守恒性能。
6987 篇论文
本文提出了名为 FluenceFormer 的 Transformer 驱动框架,通过两阶段几何感知回归与物理信息损失函数,有效解决了放疗计划中流强图预测的病态逆问题,并在前列腺 IMRT 数据集上显著提升了结构保真度与能量守恒性能。
本文提出了名为 Yukthi Opus 的多链混合元启发式算法,该算法通过整合 MCMC 全局探索、贪婪局部搜索及自适应退火机制,在严格的评估预算约束下,有效解决了包括旅行商问题在内的大规模 NP 难黑盒优化难题。
该论文通过构建成本与延迟感知的基准测试,评估了工具与规划在事件问答和说服性生成任务中对大语言模型推理能力的实际影响,发现虽然工具增强能显著提升特定任务(如事件问答)的准确率,但往往以巨大的延迟和成本为代价,且在某些场景(如 CMV)中简单的单次提示反而更具效率,因此强调需根据任务特性在模型规模与代理复杂度之间进行权衡。
该论文提出了一种名为 PFUA 的工具增强型蛋白质推理智能体,通过整合领域专用工具生成可验证的中间证据,有效克服了纯文本推理在蛋白质功能预测中的局限性,并在多个基准测试中实现了平均 103% 的性能提升。
本文提出了 NeuronLLM 框架,通过借鉴生物学的功能拮抗原理,利用对比学习同时识别促进和抑制任务完成的神经元,并结合增强问题集消除偶然行为,从而实现了可解释且可控的任务级大语言模型理解。
本文提出了一种名为谱球优化器(SSO)的新方法,通过在 Megatron 中实现严格的模块级谱约束,解决了现有优化器在最大更新参数化(μP)对齐上的不足,从而在多种大规模架构训练中实现了比 AdamW 和 Muon 更优的收敛速度与稳定性。
本文提出了 EmboTeam 框架,通过结合大语言模型的语义解析能力、PDDL 经典规划器的搜索能力以及行为树的反应式控制机制,实现了异构多机器人团队在复杂长程任务中的高效协作,并在 MACE-THOR 基准测试中显著提升了任务成功率与目标条件召回率。
该研究表明,用户对 AI 生成的恋爱建议满意度较高,且这种满意度与对模型可靠性和帮助性的感知密切相关,同时接触此类建议能显著改善用户对 AI 系统的整体态度。
本文提出了 ButterflyMoE 方法,通过将专家视为共享量化基底上的几何旋转而非独立权重矩阵,利用结构化蝴蝶轨道实现亚线性内存扩展,从而在边缘设备上以极低的内存开销(减少 150 倍)和可忽略的精度损失支持大规模专家模型。
本文介绍了专为增强企业场景性能而设计的开源稀疏混合专家(MoE)大模型 Yuan3.0 Ultra,其通过提出面向预训练阶段的层自适应专家剪枝(LAEP)算法,在显著降低参数量并提升预训练效率的同时,实现了多领域及企业基准测试中的领先表现。
该论文通过构建基于足球集锦的新数据集,评估了基础模型识别视频关键子事件的能力,发现其表现接近随机水平且过度依赖单一模态,从而强调了采用模块化架构和互补训练方法以实现跨模态协同的必要性。
本文提出了一种可扩展的 CopulaGNN 改进方法,通过利用边缘嵌入的格拉姆矩阵表示相关性矩阵并重构条件概率分布,在解决有符号图链接符号预测中计算不可行问题的同时,实现了比基线更快的线性收敛速度并保持竞争性的预测性能。
本文提出了“移动嵌入兴趣点”(ME-POIs)框架,通过融合语言模型生成的文本嵌入与大规模人类移动数据,利用对比学习和跨尺度时空传播机制来捕捉兴趣点的功能特征,从而在多种地图增强任务中显著优于仅依赖文本或仅依赖移动数据的基线模型。
本文提出了 PerfGuard,一种面向视觉内容生成的性能感知智能体框架,通过引入性能感知选择建模、自适应偏好更新和能力对齐规划优化三大核心机制,有效解决了现有框架因忽视工具执行性能边界而导致的规划不确定性问题,显著提升了复杂 AIGC 任务中的工具选择准确性与执行可靠性。
该论文提出了一种将 Transformer 层解释为优化算法迭代的变分框架,并基于此设计了名为 YuriiFormer 的 Nesterov 加速架构,其在 TinyStories 和 OpenWebText 数据集上均优于 nanoGPT 基线,证明了优化理论洞察能转化为实际性能提升。
本文提出了名为 MoR 的联邦对齐框架,通过利用混合奖励(Mixture-of-Rewards)和基于路由的融合机制,在保护数据隐私的前提下,实现了异构视觉语言模型(VLM)的高效联邦对齐,并在多个基准测试中展现出优于现有基线的泛化性与鲁棒性。
本文提出了一种名为 VIP 的基于方差信息的预测性分配策略,通过利用高斯过程模型预测提示词的成功概率并求解凸优化问题,动态分配在线强化学习中的推理预算以最小化策略更新的梯度方差,从而在多个基准测试中显著提升了采样效率和模型性能。
该论文针对机器人操作中的视觉遮挡问题,提出了“探索与聚焦操作”(EFM)新范式,构建了包含 10 项任务的 EFM-10 基准数据集,并验证了利用双臂协同实现主动感知(BAP)策略在模仿学习中的有效性。
该论文通过理论与实证分析证明,大型语言模型中的激活方向向量在行为上具有根本性的不可识别性,即正交扰动能达到与原始方向几乎相同的干预效果,从而揭示了仅凭行为测试无法可靠解释或对齐模型内部表示的局限性。
本文提出了 LatentChem,一种将化学推理从显式文本思维链解耦至连续潜在空间的接口,通过让模型在潜在空间内自发进行隐式计算,在 ChemCoTBench 基准测试中实现了比传统 CoT 基线高出 59.88% 的非平局胜率及 10.84 倍的推理速度提升。