A Graph-Based Approach to Spectrum Demand Prediction Using Hierarchical Attention Networks
该论文提出了一种名为 HR-GAT 的层次化分辨率图注意力网络模型,利用地理空间数据有效解决空间自相关难题,在五个加拿大主要城市的测试中将其频谱需求预测精度较八种基准模型提升了 21%。
5017 篇论文
该论文提出了一种名为 HR-GAT 的层次化分辨率图注意力网络模型,利用地理空间数据有效解决空间自相关难题,在五个加拿大主要城市的测试中将其频谱需求预测精度较八种基准模型提升了 21%。
本文提出了梯度对齐稀疏微调(GAST)方法,通过统一优化策略在数据层和模型层两个维度上自适应地选择最具影响力的数据点与关键层,有效解决了现有参数高效微调方法忽视数据对不同层贡献差异的问题,并在实验中展现出优于基线的性能。
本文介绍了 CarbonBench,这是首个旨在通过零样本空间迁移学习评估全球碳通量上模型性能的标准基准,它利用来自全球 567 个通量塔站的 130 多万条观测数据,提供了分层评估协议、统一特征集及多种基线模型,以推动机器学习与地球系统科学的融合及下一代气候建模的发展。
该论文提出了一种名为 MSSR 的记忆感知自适应回放框架,通过估计样本级记忆强度并动态调整复习间隔,在持续微调大语言模型时有效缓解了灾难性遗忘问题,同时保持了快速适应能力,并在多项基准测试中显著优于现有方法。
本文提出了名为 OptEMA 的自适应指数移动平均优化器及其两个变体,通过引入闭环、无需 Lipschitz 常数的机制,在标准随机梯度下降假设下实现了噪声自适应的收敛率,并在零噪声情形下无需手动调整超参数即可达到近乎最优的确定性收敛速度。
该论文从谱分析和变分视角揭示了生成漂移与得分匹配之间的本质联系,通过线性化麦基恩 - 弗拉索夫动力学和形式化最优传输梯度流,不仅解释了高斯核的频域瓶颈并提出了指数带宽退火策略,还从理论层面证明了停止梯度算子在训练稳定性中的必要性。
本文提出了名为 SignalMC-MED 的多模态基准,利用包含 22,256 次就诊的同步单导联 ECG 和 PPG 数据评估生物信号基础模型,发现领域专用模型优于通用模型、多模态融合优于单模态输入,并揭示了长信号段、小模型及手工特征在特定场景下的优势。
该论文提出利用过拟合 - 欠拟合指示器(OUI)作为早期信号,通过分析 PPO 中隐藏神经元的激活模式变化来区分学习率设置,从而在训练初期高效筛选出最优策略并避免全量训练。
该论文提出了“神经调试器”这一新概念,通过微调大语言模型或从头预训练小模型,使其能够像传统调试器一样支持断点设置和步进操作,从而实现对 Python 程序正向执行预测与逆向状态推断的可靠建模,为构建具备模拟调试能力的智能体编程系统奠定了基础。
该论文通过引入具有层可组合性的均值归一化算子范数,将 AdamW 和 Muon 等优化器统一为矩阵算子范数下的最速下降法,从而提出了能实现宽度无关平滑度保证及跨宽度超参数迁移的 MOGA 优化器,并在 GPT-2 和 LLaMA 的大规模预训练中展现出比 Muon 更优的效率与稳定性。
该论文提出了 C2FMAE,一种通过语义、实例和像素三级粒度协同学习及渐进式掩码策略来解决自监督视觉预训练中全局语义与局部细节矛盾的新型分层掩码自编码器,并在大规模多粒度数据集上验证了其在多种视觉任务中的卓越性能。
该论文通过新颖的道德权衡数据集发现,与人类不同,推理过程能显著提升大语言模型的诚实度,其根本原因在于欺骗性回答在表征空间中处于亚稳态,而推理生成的思维链通过遍历该空间将模型推向更稳定的诚实默认状态。
该论文通过引入“词袋超叠加”(BOWS)实验环境,揭示了在真实数据中特征相关性可使干扰变为建设性,从而促使模型将特征按共激活模式排列以形成语义聚类和循环结构,弥补了传统超叠加理论仅关注稀疏无相关特征的不足。
该论文提出了任务感知调制与表示学习(TAM-RL)框架,通过结合时空表示学习、知识引导的编解码架构以及基于碳平衡方程的损失函数,有效克服了现有数据驱动方法在泛化性和区域偏差上的局限,显著提升了全球陆地碳通量上推的精度与鲁棒性。
本文提出了两种基于神经网络和在线学习的变化点检测方法,它们具有线性计算复杂度,在合成及真实数据集上的实验表明其性能优于现有方法,并证明了算法的收敛性及其在特定条件下优于离线方法的优势。
本文提出了一种半参数贝叶斯加法回归树(BART)的新方法,通过改进树生成机制来解决线性预测器与 BART 组件共享协变量时的非识别性与偏差问题,从而允许对主要关注的协变量进行复杂的交互建模,并在教育评估等实际应用中展现了优越性能。
本文提出了一种结合群智能优化算法的白盒支持向量机框架,通过分析主轴振动特征并利用递归特征消除进行筛选,实现了对铣刀磨损及断裂等故障的实时监测与状态评估。
本文综述了自动化强化学习(AutoRL)的相关文献,涵盖了从 MDP 建模、算法选择到超参数优化的自动化工具及基于大语言模型的最新技术,并探讨了该领域的未来挑战与研究方向。
该论文提出了一种将数据不确定性作为额外输入的可解释子序列模型,在保持与最先进方法相当分类性能的同时,解决了现有可解释时间序列方法在处理天文不确定时间序列时性能不足的问题,并能为天体物理理论建模提供新的见解。
该论文提出了一种基于高斯过程回归的集成学习方法,用于预测股票条件预期收益,实证表明该方法在统计和经济指标上均优于现有机器学习模型,并能通过利用预测不确定性构建均值 - 方差最优投资组合,显著跑赢标普 500 指数。