GNNs for Time Series Anomaly Detection: An Open-Source Framework and a Critical Evaluation
该论文提出了一个用于图神经网络时间序列异常检测的开源框架,通过系统性评估揭示了 GNN 在提升检测性能与可解释性方面的优势,并批判性地反思了当前领域在指标设计与阈值策略上的局限性。
2300 篇论文
该论文提出了一个用于图神经网络时间序列异常检测的开源框架,通过系统性评估揭示了 GNN 在提升检测性能与可解释性方面的优势,并批判性地反思了当前领域在指标设计与阈值策略上的局限性。
该论文提出了 EsoLang-Bench 基准,通过利用缺乏预训练数据且难以被“刷分”的极简主义编程语言,揭示了大型语言模型在标准代码生成任务中表现优异实则依赖记忆,而在需要真正推理能力的任务中表现极差,从而证明现有模型缺乏真正的泛化推理能力。
该论文通过实证研究揭示了低秩分解参数高效微调中的灾难性遗忘现象主要受更新子空间的几何结构与参数化方式影响,并指出张量分解和结构对齐参数化方法能有效缓解遗忘,为连续学习场景下的策略选择提供了实践指导。
该论文提出了 ActiveUltraFeedback,一种利用主动学习动态筛选高信息量样本以生成偏好数据的模块化流程,通过引入 DRTS 和 DeltaUCB 等新颖方法,仅用六分之一的标注数据即可实现与静态基线相当甚至更优的大语言模型对齐效果。
本文提出了一种名为 PF-PINO 的物理信息神经算子框架,通过将相场控制方程的残差嵌入损失函数来强制物理约束,从而在精度、泛化能力和长期稳定性上显著优于传统傅里叶神经算子,为复杂界面演化问题的高效预测提供了鲁棒的计算工具。
本文提出了名为 Mousse 的新型优化器,它通过结合 Shampoo 的曲率感知预条件技术与 Muon 的谱优化方法,在黎曼流形上实现了各向异性的信任区域约束,从而在几乎不增加计算开销的情况下显著提升了语言模型的训练效率。
本文针对 AI-RAN 赋能的多接入边缘计算系统中联邦学习面临的非独立同分布数据挑战,提出了一种通过引入条件层次凝聚聚类与原型对齐机制的多原型引导联邦知识蒸馏(MP-FedKD)方法,有效克服了单原型策略的信息丢失问题并显著提升了模型精度。
本文针对基于二阶常微分方程的神经振荡器,利用 Rademacher 复杂度框架推导了其泛化误差上界,证明了误差随网络规模和时长呈多项式增长且可通过正则化约束提升泛化能力,并通过 Bouc-Wen 非线性系统的数值实验验证了理论结果。
该论文建立了基于分段线性路径离散时间签名的全局通用逼近定理,证明了在满足特定可积性条件下,其线性泛函在及加权范数下具有稠密性,并据此推导出了布朗运动驱动的路径依赖泛函、随机常微分方程及随机微分方程的逼近结果。
该论文指出可解释人工智能(XAI)领域长期忽视了神经元对“缺失概念”的编码现象,并提出扩展归因和特征可视化方法以有效揭示此类机制,从而提升模型解释性与去偏效果。
本文提出了一种结合长短期记忆网络(LSTM)与量子电路 Born 机器(QCBM)的混合量子 - 经典框架,通过利用 QCBM 作为高质量先验分布来增强 LSTM 的特征提取能力,从而在上证综指和沪深 300 指数的高频数据上显著提升了金融波动率预测的精度。
该论文提出了一种名为 ACP-SL 的自适应通道剪枝方案,通过设计标签感知通道重要性评分模块来识别并剪除不重要的通道,从而压缩分裂学习中的中间特征传输数据,在降低通信开销的同时提升了测试准确率并减少了训练轮次。
该论文提出了一种基于信息几何的-GaBO 算法族,通过构建反映概率单纯形黎曼几何的 Matérn 核函数及几何优化器,实现了在该非欧几里得约束域上对昂贵黑盒目标函数的数据高效优化,并在多项实际应用中展现出优于传统欧氏约束方法的性能。
该论文提出了一种名为“上下文强化学习验证(In-Context RLVR)”的新方法,通过利用模型自身的上下文学习能力生成“证据增益”信号来隐式地根据推理质量对奖励进行重加权,从而在无需外部评估器的情况下解决传统 RLVR 可能强化低质量推理路径的问题,显著提升了数学基准测试中的准确率与推理质量。
该论文提出了一种受多重网格启发、可无缝集成到现有模型中的轻量级“平滑伪投影器”,通过抑制与标签无关的输入方向来修正 Transformer 模型的隐藏表示,从而在文本分类等任务中显著提升了训练动态和鲁棒性。
本文提出了一种基于高斯过程的统一分层多任务多保真度(H-MT-MF)框架,通过联合建模任务间相似性与保真度依赖性,有效解决了制造系统代理建模中数据需求大及多源异构数据利用不足的问题,显著提升了预测精度。
该论文提出了一种名为 HR-GAT 的层次化分辨率图注意力网络模型,利用地理空间数据有效解决空间自相关难题,在五个加拿大主要城市的测试中将其频谱需求预测精度较八种基准模型提升了 21%。
本文提出了梯度对齐稀疏微调(GAST)方法,通过统一优化策略在数据层和模型层两个维度上自适应地选择最具影响力的数据点与关键层,有效解决了现有参数高效微调方法忽视数据对不同层贡献差异的问题,并在实验中展现出优于基线的性能。
本文介绍了 CarbonBench,这是首个旨在通过零样本空间迁移学习评估全球碳通量上模型性能的标准基准,它利用来自全球 567 个通量塔站的 130 多万条观测数据,提供了分层评估协议、统一特征集及多种基线模型,以推动机器学习与地球系统科学的融合及下一代气候建模的发展。
该论文提出了一种名为 MSSR 的记忆感知自适应回放框架,通过估计样本级记忆强度并动态调整复习间隔,在持续微调大语言模型时有效缓解了灾难性遗忘问题,同时保持了快速适应能力,并在多项基准测试中显著优于现有方法。