Are Expressive Encoders Necessary for Discrete Graph Generation?
该论文提出了名为 GenGNN 的模块化消息传递框架,证明了在离散图生成任务中,无需依赖高表达力的 Transformer 等复杂架构,仅使用 GenGNN 作为扩散模型骨干即可在保持与图 Transformer 相当的有效性(如树和平面图数据集超过 90%、分子生成达 99.49%)的同时,实现 2 至 5 倍的推理速度提升。
2281 篇论文
该论文提出了名为 GenGNN 的模块化消息传递框架,证明了在离散图生成任务中,无需依赖高表达力的 Transformer 等复杂架构,仅使用 GenGNN 作为扩散模型骨干即可在保持与图 Transformer 相当的有效性(如树和平面图数据集超过 90%、分子生成达 99.49%)的同时,实现 2 至 5 倍的推理速度提升。
该论文提出了 MASEval 框架,旨在填补现有基准测试仅关注模型而忽视系统实现(如拓扑结构和编排逻辑)的空白,通过系统级评估证明框架选择对多智能体系统性能的影响与模型选择同等重要。
该论文通过理论证明与实验验证,揭示了混合序列模型(结合 Transformer 与状态空间模型)在解决特定合成任务时,能够以远少于纯 Transformer 或纯状态空间模型的参数量和内存开销实现同等性能,并展现出更优的长度泛化能力与分布外鲁棒性。
本文提出了 APPLV 方法,通过利用预训练视觉 - 语言模型预测经典规划器的参数,结合监督与强化学习策略,有效解决了移动机器人在高约束环境下的导航安全性、精确控制及泛化难题。
该研究通过在私有 5G 环境中的实测表明,仅依赖信道级指标(如信号强度)的模型会因高估 MIMO 空间层数而系统性地高估端到端吞吐量,而直接基于实测数据学习的高斯过程模型能显著降低预测误差,证明通信感知规划需采用数据驱动方法或精细校准的链路层模型以准确预测系统性能。
本文针对混合信息系统中模糊粗糙集理论在高维空间下计算效率低及易产生噪声的问题,提出了一种名为 FSbuHD 的新特征选择模型,该模型通过计算对象间综合距离构建模糊等价关系,将特征选择转化为优化问题,并在正常和乐观两种模式下经实验验证了其高效性与优越性。
本文提出了一种名为“转移信息博彩(TIB)”的新方法,通过结合跨域风险分布预热与博彩置信序列,在数据稀缺场景下显著提升了选择性预测的覆盖率,并系统评估了九类有限样本界在多个基准测试中的表现。
本文提出了 FedLECC,一种针对非独立同分布数据的联邦学习客户端选择策略,通过结合标签分布聚类与局部损失引导,在显著降低通信开销的同时提升了模型收敛速度与测试精度。
该论文提出了一种整合困惑度检测、金丝雀序列提取和成员推断的多向量隐私评估框架,系统量化了基因组语言模型在不同架构和训练条件下的记忆化风险,揭示了单一攻击手段的局限性并强调了多向量审计的必要性。
该论文提出了一种基于连续松弛伯努利门的全微分优化方法,用于在保持网络权重冻结的情况下高效发现强彩票子网络,从而在多种架构上实现了比现有方法更高的稀疏度且几乎无精度损失。
本文提出了 MedCBR 框架,通过将临床指南融入视觉 - 语言模型与概念推理,实现了从医学图像分析到符合指南的专家级诊断推理的端到端可解释性提升。
本文提出了一种基于数字孪生多保真网络的层次化强化学习框架,通过联合优化天线倾角调整策略与物理/虚拟网络数据采集比例,在满足时延约束的同时最大化用户数据速率,并显著降低了物理网络的数据采集延迟。
本文介绍了名为"Guardian"的端到端决策支持系统,该系统通过结合可解释的马尔可夫链、强化学习及大语言模型质量验证的三层架构,将非结构化案件数据转化为缺失儿童搜索的时空风险预测与优化方案。
该论文提出了 BiCLIP 框架,通过利用少量锚点样本学习跨域图像特征间的规范几何变换,以极简的参数量实现了多模态特征的对齐,并在多个基准测试中取得了最先进的零样本域适应性能。
本文提出了一种基于通用最不利子模型的核去偏插件估计量(ULFS-KDPE),该方法通过在再生核希尔伯特空间中构建自适应去偏流,无需显式推导或计算有效影响函数即可在标准正则条件下实现非参数模型中路径可微参数的半参数效率估计,并具备坚实的泛函分析基础与良好的数值稳定性。
这篇论文探讨了基于模拟的统计推断中机器学习近似导致的过度自信问题,并提出了“平衡”正则化方法和针对该场景定制的贝叶斯神经网络两种解决方案,以增强推断结果的可靠性与校准性。
本文介绍了名为"Guardian"的端到端系统及其多模型流水线,该系统通过结合基于 QLoRA 的微调、任务专用大语言模型以及共识引擎,旨在以可审计的保守方式辅助失踪人员(特别是儿童)调查中的关键信息提取与搜索规划。
这篇综述向经济学家介绍了强化学习方法,阐述了其如何通过样本基础扩展动态规划以解决高维状态和连续动作等复杂经济模型,同时也指出了其在样本效率、超参数敏感性及收敛性保证等方面的局限性。
该论文提出了"不等式”这一预测准则,揭示了混合专家(MoE)模型在推理阶段因路由碎片化和显存受限而遭受的“双重惩罚”,指出其在长上下文场景下往往不如同等质量的稠密模型高效,并建议将 MoE 视为训练优化手段,通过蒸馏为稠密模型以实现推理部署。
该论文提出了“语义细节层次”(SLoD)框架,通过在双曲流形上利用热核扩散构建连续缩放算子,不仅实现了知识表示的多尺度平滑过渡,还能自动检测图谱拉普拉斯谱隙以无监督地发现语义抽象的质变边界。