Continual uncertainty learning
该研究提出了一种基于课程学习的持续不确定性学习框架,通过将多源不确定性分解为序列任务并结合模型基控制器进行残差学习,有效解决了非线性机械系统鲁棒控制中的样本效率低与灾难性遗忘问题,并成功实现了汽车动力总成主动振动控制的仿真到现实迁移。
4882 篇论文
该研究提出了一种基于课程学习的持续不确定性学习框架,通过将多源不确定性分解为序列任务并结合模型基控制器进行残差学习,有效解决了非线性机械系统鲁棒控制中的样本效率低与灾难性遗忘问题,并成功实现了汽车动力总成主动振动控制的仿真到现实迁移。
该论文提出了耦合离散扩散(CoDD)框架,通过引入轻量级概率推理层替代传统的完全因子化输出分布,成功打破了扩散语言模型中并行生成与依赖建模之间的“因子化壁垒”,在显著降低训练成本的同时实现了高质量、低延迟的推理生成。
本文提出了一种名为 SpeedTransformer 的基于 Transformer 的模型,该模型仅利用速度输入即可从密集智能手机 GPS 轨迹中准确推断交通方式,并在基准测试、跨地区迁移学习及复杂现实环境实验中均表现出优于传统深度学习模型的性能。
本文研究了非矩形平均奖励鲁棒马尔可夫决策过程,证明了在弱通信假设下存在实现次线性期望遗憾的鲁棒最优策略,揭示了其鲁棒值的极小极大表示,并指出平均奖励最优性可能掩盖极差的瞬态表现,进而提出了一种结合最坏情况最优策略、序贯检验与在线学习回退机制的基于时段的策略,以实现常数阶的瞬态值。
该论文提出了 DUEL 框架,通过统一确定性去掩码策略,首次实现了掩码扩散模型(MDM)在测试分布下的精确似然计算,从而揭示了其性能远超此前评估,并展示了其超越自回归模型的巨大潜力。
该论文提出了名为 Gome 的 MLE 智能体,通过将诊断推理映射为梯度计算等机制实现基于梯度的优化,实验表明在推理能力较强的模型上,该方法在 MLE-Bench 基准测试中显著超越了传统的树搜索范式。
该论文提出了名为 FinTexTS 的大规模金融文本 - 时间序列配对数据集,通过基于语义的上下文提取和多级(宏观、行业、关联公司及目标公司)新闻分类框架,有效解决了传统关键词匹配无法捕捉复杂市场关联的局限,并显著提升了股票价格预测性能。
该论文提出了溢出感知缩放(OAS)和宏块缩放(MBS)两种纯软件技术,在无需硬件改动的前提下显著降低了 MXFP4 的量化误差,使其在保持硬件效率优势的同时,将端到端精度与 NVIDIA NVFP4 的差距从约 10% 缩小至 1% 以下。
本文提出了一种名为 OWO-FMTL 的在线双层公平多任务学习框架,通过结合共享模型更新与轻量级原对偶重平衡机制,在 AI 无线接入网络中实现了低开销、可调节效率与公平性权衡的长期用户性能均衡。
本文提出了 KernelCraft,这是首个用于评估大语言模型智能体在新兴硬件架构上通过反馈驱动流程自动生成和优化底层内核的基准测试,实验表明该方法能有效降低内核开发成本并生成性能优于传统编译器模板的高质量代码。
本文提出了 ALADIN 框架,旨在针对基于 Scratchpad 的嵌入式 AI 加速器,在不依赖目标平台部署的情况下,通过渐进式细化混合精度量化模型,实现对推理过程中精度、延迟与资源消耗之间权衡的精准评估与硬件软件协同设计分析。
本文综述了超低功耗边缘与片上传感器 AI 处理器的演进现状,并通过在 GAP9、STM32N6 和 Sony IMX500 三种代表性平台上对 PicoSAM2 模型的实证基准测试,揭示了不同架构在延迟、能效及能量延迟积方面的性能权衡,突显了片上传感器处理技术的成熟度与重要性。
本文提出了一种面向多像素处理的数据速率感知 CNN FPGA 加速器架构,通过设计空间探索优化层间配置,在保持数据连续流动的同时显著降低了算术资源消耗,从而实现了复杂 CNN 在单一 FPGA 上的高效部署。
该论文通过五项模型消融研究,证明了将监督对比学习、霍普菲尔德网络与层级门控循环网络协同集成到脉冲神经网络中,能够在 N-MNIST 数据集上实现分类精度、聚类结构、能效及稀疏度的综合最优,确立了记忆增强型神经形态系统的设计原则。
本文提出了 Hebbian-Oscillatory Co-Learning (HOC-L) 框架,通过利用 Kuramoto 型相位同步的宏观序参量门控 Hebbian 结构更新,将双曲稀疏几何与振荡器注意力机制统一为一种具有收敛性证明和 复杂度的生物启发式稀疏神经网络架构。
该论文提出了名为 Auralink SDC 的边缘部署 AI 架构,通过置信度校准自主修复、自适应检索增强推理及分层多智能体编排等关键技术,在满足严格安全约束的商用硬件上实现了亚 50 毫秒延迟,从而将电动汽车充电基础设施的自主故障解决率提升至 78%。
本文提出了一种基于敏感度引导的压缩框架,通过系统性地探索量化与剪枝的权衡,在 FPGA 实现中显著提升了储层计算加速器的硬件效率(如降低功耗延迟积),同时保持了模型精度。
本文提出了专为 AI 加速器设计的 AetherFloat 系列浮点架构,通过采用四基(Base-4)缩放、显式尾数及无块缩放(Block-Scale-Free)特性,在消除动态缩放硬件开销的同时,显著降低了 MAC 单元的芯片面积、功耗和延迟,并实现了更优的动态范围与梯度稳定性。
本文提出了一种基于物理信息神经网络(PINN)的框架,能够仅利用部分电压观测数据,在强非线性和多尺度动力学条件下,鲁棒且准确地重建神经元模型中的隐藏状态变量并推断生物物理参数,有效克服了传统数值方法在初始猜测敏感和收敛失败方面的局限。
本文针对多变量时间序列建模中变量顺序人为性导致的问题,从理论上证明了置换等变线性状态空间系统的规范形式,并据此提出了 VI 2D SSM 及其架构 VI 2D Mamba,通过消除变量轴上的序列依赖链,在降低计算复杂度与简化稳定性分析的同时实现了卓越的性能。