Adaptive Transfer Clustering: A Unified Framework
本文提出了一种名为自适应迁移聚类(ATC)的统一框架,该算法通过优化偏差 - 方差分解,能够在主数据集与辅助数据集存在未知差异的情况下自动利用共性,从而在包括高斯混合模型在内的多种统计模型中实现最优的聚类效果并量化迁移收益。
2325 篇论文
本文提出了一种名为自适应迁移聚类(ATC)的统一框架,该算法通过优化偏差 - 方差分解,能够在主数据集与辅助数据集存在未知差异的情况下自动利用共性,从而在包括高斯混合模型在内的多种统计模型中实现最优的聚类效果并量化迁移收益。
本文提出了一种用于求解双块非凸非光滑优化问题的学习近端交替最小化算法(LPAM)及其对应的可解释网络(LPAM-net),通过结合平滑技术、残差学习与块坐标下降策略证明了算法的收敛性,并在联合多模态 MRI 重建任务中展现了参数高效与优越的性能。
该论文提出了一种通过重建视觉基元来学习高层结构解释的神经符号系统,其在组织病理学图像异常诊断任务中不仅比传统深度学习架构具有更高的分类准确率,还具备更强的可解释性。
该论文提出了 Puppet-CNN 框架,通过将卷积层参数建模为受神经微分方程控制的连续动态系统,实现了根据输入复杂度自适应调整有效层数,从而在保持竞争力的同时显著减少了可训练参数。
该论文提出了一种输入自适应生成动力学框架,通过训练扩散模型适应不同的生成轨迹,使其能根据样本复杂度动态调整生成过程,从而在保持图像生成质量的同时减少平均采样步数。
本文提出了一种基于聚类分析的步态任务集优化策略,通过筛选最小且具代表性的任务组合来训练神经网络,在显著降低数据采集成本的同时,实现了与使用全量任务集相当的髋关节力矩估计精度。
该论文提出了一种基于有限维表示的轻量级参数化方法,用于从含噪点观测中估计光滑函数及其导数,该方法不仅实现了极小极大最优的一致收敛速率和内存效率,还通过推导有限样本界与下界证明了其最优性,从而克服了传统核估计器在实时应用中计算与存储成本过高的问题。
本文综述了生成式扩散模型(GDM)在大规模 MIMO 通信中的应用潜力,通过概述相关框架与机制、展示近场信道估计案例,并探讨未来挑战与研究方向,论证了其在高效获取超维信道状态信息方面的前景。
该论文通过引入嵌入先验并分析提示微调中嵌入坍塌现象,发现模型能在激活空间的不同区域有效工作,且不同任务类型的激活轨迹呈现特定聚类模式,从而为提升提示微调的可解释性、可控性及泛化能力提供了新见解。
该论文提出了一种利用预训练视觉 - 语言模型(VLM)从少量演示中学习抽象符号世界模型的方法,通过自动构建和筛选谓词,使机器人能够在未见过的复杂场景中实现零样本泛化,从而解决长视野的决策规划问题。
本文提出了 UFGraphFR,一种基于用户文本描述特征的联邦推荐框架,该框架通过将私有数据转化为语义向量来在保护隐私的前提下重构全局用户关系图,并结合 Transformer 架构优化个性化行为序列,从而在多个基准数据集上显著提升了推荐精度与个性化水平。
该论文提出了一种基于潜在聚类的数据缩减策略,通过从决策边界附近智能筛选或生成关键样本,在大幅降低半监督对抗训练(SSAT)所需数据量和计算成本的同时,保持了与全量训练相当的鲁棒性。
本文针对深度学习框架下的噪声标签分类问题,通过独立块构造处理统计依赖并推广至向量值设定,在低维流形假设下推导了包含统计误差与逼近误差的超额风险误差界。
本文提出了一种名为生成预测控制(GPC)的框架,该框架通过结合专家演示克隆的生成策略、基于探索数据训练的预测世界模型以及利用模型进行前瞻优化的在线规划器,在多种仿真与真实世界的机器人操作任务中显著超越了传统的行为克隆方法。
本文针对分布式计算中服务器独立以概率 发生延迟的通用编码计算场景,理论证明了 BACC 和 LeTCC 两种方案的平均近似误差均能以特定速率收敛至零,并通过实验验证了该结论在包括深度神经网络在内的多种任务中的有效性。
该论文提出了一种名为 GRADIEND 的新型编码器 - 解码器方法,利用模型梯度学习编码社会偏见(如性别、种族和宗教)的特征神经元,从而能够精准定位并修改模型权重以在保留其他能力的同时消除偏见。
该论文通过构建包含 200 个任务的跨语言数据集,分析了大语言模型在生成代码时的安全性与质量,发现尽管模型能自动化代码创作,但其安全表现因编程语言而异,且普遍未能利用现代编译器更新的安全特性或仍沿用过时方法,凸显了提升模型安全性并融入最新编程最佳实践的必要性。
本文提出了一种针对带符号网络中极化社区发现的高效局部搜索算法,通过引入新颖的优化目标解决社区规模失衡问题,并首次将局部搜索扩展至允许中性顶点的大规模网络场景,同时证明了其线性收敛性并在实验中展现出优于现有方法的性能。
该论文提出了 CLEF 模型,通过学习编码干预时机与作用范围的时间概念,实现了对生物及临床纵向轨迹中特定变量在特定时刻的可控编辑与反事实生成,显著优于现有最先进方法。
该论文指出,在联邦学习微调大语言模型时,采用低秩适应(LoRA)策略能在不显著牺牲性能的前提下,将模型对训练数据的记忆风险降低高达 10 倍,且该方法可与其他隐私保护技术结合以进一步提升隐私安全性。