Gist.Science
今日搜索里程碑关于TestimonialsSign inDigest
  • EN
  • NL
  • DE
  • FR
  • ES
  • 中文
  • 日本語
  • 한국어
  • PT
  • IT
🤖 Category

cs.LG

11825 篇论文

A Geometric Perspective on the Difficulties of Learning GNN-based SAT Solvers

本文从几何视角出发,利用图里奇曲率揭示了基于图神经网络的 SAT 求解器在难解实例上性能下降的根本原因在于负曲率导致的过度挤压效应,并证实了曲率可作为预测问题复杂度与泛化误差的有效指标。

Geri Skenderi2026-03-06🔬 physics

New Insights into Optimal Alignment of Acoustic and Linguistic Representations for Knowledge Transfer in ASR

本文提出了一种基于非平衡最优传输的对齐模型,通过将声学与语言表征的对齐视为检测问题,有效解决了知识迁移中存在的结构不对称及分布不匹配挑战,从而显著提升了自动语音识别(ASR)的性能。

Xugang Lu, Peng Shen, Hisashi Kawai2026-03-06💻 cs

AttnBoost: Retail Supply Chain Sales Insights via Gradient Boosting Perspective

本文提出了 AttnBoost 框架,通过在梯度提升过程中集成特征级注意力机制,实现了对零售供应链销售需求的更精准预测与可解释性分析,从而有效应对数据噪声和消费者行为变化带来的挑战。

Yadi Liu, Xiaoli Ma, Muxin Ge + 6 more2026-03-06💻 cs

Topology Structure Optimization of Reservoirs Using GLMY Homology

本文利用持久 GLMY 同调理论分析储层拓扑结构,发现其一维同调群与性能密切相关,并通过修改最小代表循环提出了优化储层结构的方法,实验验证了该方法能有效提升储层性能。

Yu Chen, Shengwei Wang, Hongwei Lin2026-03-06💻 cs

TabStruct: Measuring Structural Fidelity of Tabular Data

本文提出了名为 TabStruct 的综合评估基准,通过引入无需真实因果结构先验的“全局效用”指标,实现了对 13 种表格生成器在 29 个数据集上结构保真度与传统评估维度的联合量化分析。

Xiangjian Jiang, Nikola Simidjievski, Mateja Jamnik2026-03-06💻 cs

BabyHuBERT: Multilingual Self-Supervised Learning for Segmenting Speakers in Child-Centered Long-Form Recordings

本文提出了 BabyHuBERT,一个基于 1.3 万小时多语言儿童录音训练的自监督语音模型,其在区分目标儿童与不同说话者类型的任务中显著优于现有成人语音模型,有效解决了儿童中心长时录音分析中的语言差异挑战。

Théo Charlot, Tarek Kunze, Maxime Poli + 3 more2026-03-06💻 cs

Diffusion-Based Impedance Learning for Contact-Rich Manipulation Tasks

本文提出了一种结合生成式建模与能量一致阻抗控制的“基于扩散的阻抗学习”框架,通过 Transformer 扩散模型重构零力轨迹并在线调节阻抗参数,使机器人在仅用少量样本训练后,能在实时力控下实现接触丰富任务的高精度操作与泛化。

Noah Geiger, Tamim Asfour, Neville Hogan + 1 more2026-03-06💻 cs

Complexity-Regularized Proximal Policy Optimization

本文提出了一种名为 CR-PPO 的强化学习算法,通过引入结合香农熵与不平衡度的自调节复杂度项替代传统熵正则化,在保持策略有益随机性的同时降低了对超参数调整的依赖,从而显著提升了 PPO 算法的鲁棒性。

Luca Serfilippi, Giorgio Franceschelli, Antonio Corradi + 1 more2026-03-06💻 cs

Noise-to-Notes: Diffusion-based Generation and Refinement for Automatic Drum Transcription

本文提出了名为 Noise-to-Notes (N2N) 的新框架,将自动鼓乐转录重新定义为基于扩散模型的生成式任务,通过引入退火伪 Huber 损失函数解决离散与连续值联合优化难题,并结合音乐基础模型特征显著提升了跨域鲁棒性,在多个基准测试中取得了最先进性能。

Michael Yeung, Keisuke Toyama, Toya Teramoto + 2 more2026-03-06💻 cs

BridgeDrive: Diffusion Bridge Policy for Closed-Loop Trajectory Planning in Autonomous Driving

本文提出了 BridgeDrive,一种基于锚点引导的扩散桥策略,通过建立前向与反向过程理论一致的轨迹规划框架,在保持实时性的同时显著提升了自动驾驶闭环场景下的规划性能。

Shu Liu, Wenlin Chen, Weihao Li + 7 more2026-03-06💻 cs

Towards Understanding Subliminal Learning: When and How Hidden Biases Transfer

该论文通过受控实验与机制分析揭示,语言模型在硬蒸馏中发生的“潜意识学习”(即隐藏偏见转移)并非源于全局令牌纠缠,而是由少数关键的分歧令牌驱动,且这种转移主要依赖于早期网络层,同时对提示词等微小变化极为脆弱。

Simon Schrodi, Elias Kempf, Fazl Barez + 1 more2026-03-06💻 cs

BeyondBench: Contamination-Resistant Evaluation of Reasoning in Language Models

本文提出了 BeyondBench 框架,通过算法化动态生成数学上可验证的难题来消除训练数据污染,对 101 个语言模型进行了涵盖不同难度与规模的抗污染推理能力评估,揭示了当前模型在复杂算法问题上的显著推理缺陷。

Gaurav Srivastava, Aafiya Hussain, Zhenyu Bi + 5 more2026-03-06💻 cs

Hyperspherical Latents Improve Continuous-Token Autoregressive Generation

该论文提出了 SphereAR,一种通过利用超球面 VAE 将自回归生成过程中的输入输出约束在固定半径超球面上,从而解决潜在变量方差异质性问题并消除方差崩溃的图像生成方法,其在 ImageNet 上实现了超越扩散模型和掩码生成模型的自回归新纪录。

Guolin Ke, Hui Xue2026-03-06💻 cs

Quantitative convergence of trained single layer neural networks to Gaussian processes

本文提供了浅层神经网络在梯度下降训练过程中向高斯过程收敛的定量界限,通过显式上界证明了网络输出与高斯近似之间的二次 Wasserstein 距离随网络宽度呈多项式衰减,并量化了架构参数与训练动态对收敛误差的影响。

Eloy Mosig, Andrea Agazzi, Dario Trevisan2026-03-06🔢 math

Pretraining Large Language Models with NVFP4

该论文提出了一种结合随机哈达玛变换、二维量化、随机舍入及选择性高精度层的 NVFP4 训练方法,成功在 10 万亿 token 上预训练了 120 亿参数模型,实现了与 FP8 基线相当的性能,为大规模语言模型的低精度高效训练开辟了新路径。

NVIDIA, Felix Abecassis, Anjulie Agrusa + 87 more2026-03-06💻 cs

OPPO: Accelerating PPO-based RLHF via Pipeline Overlap

本文提出了 OPPO,一种轻量级且模型无关的 PPO 强化学习框架,通过引入步内流式处理与步间自适应预提交两项重叠流水线技术,有效解决了多模型依赖和长尾响应导致的效率瓶颈,在无需牺牲收敛性的前提下将训练速度提升了 1.8 至 2.8 倍。

Kaizhuo Yan, Yingjie Yu, Yifan Yu + 2 more2026-03-06💻 cs

VidGuard-R1: AI-Generated Video Detection and Explanation via Reasoning MLLMs and RL

本文提出了 VidGuard-R1,这是首个利用组相对策略优化(GRPO)强化学习框架,通过激励模型探索推理路径并引入物理一致性奖励,从而在零样本设置下实现高精度检测与可解释性归因的 AI 生成视频检测系统。

Kyoungjun Park, Yifan Yang, Juheon Yi + 6 more2026-03-06💻 cs

Non-Asymptotic Analysis of Efficiency in Conformalized Regression

本文针对基于 SGD 训练的共形化分位数和中位数回归,在温和假设下建立了预测集长度与最优区间长度偏差的非渐近界,揭示了效率对训练集大小、校准集大小及误覆盖率的联合依赖关系,并识别了不同覆盖率区间下的收敛率相变现象,从而为数据分配提供了理论指导。

Yunzhen Yao, Lie He, Michael Gastpar2026-03-06💻 cs

Do We Really Need Permutations? Impact of Model Width on Linear Mode Connectivity

本文通过引入层指数加权连通性(LEWC)理论并配合 softmax 温度校准,首次实证表明无需参数重排,仅通过增加模型宽度即可显著实现线性模式连通性(LMC)。

Akira Ito, Masanori Yamada, Daiki Chijiwa + 1 more2026-03-06💻 cs

True Self-Supervised Novel View Synthesis is Transferable

本文提出了首个无需 3D 归纳偏置或显式多视图几何概念的自监督新视角合成模型 XFactor,通过结合成对姿态估计与简单的输入输出增强方案,成功实现了姿态表示在不同场景间的可迁移性,从而确立了可迁移性作为衡量真正新视角合成能力的关键标准。

Thomas W. Mitchel, Hyunwoo Ryu, Vincent Sitzmann2026-03-06💻 cs
← 上一页下一页 →

喜欢这篇解读?每周收到精选推荐。

请查收邮箱确认订阅。

出了点问题,再试一次?

无垃圾邮件,随时退订。

Gist.Science
关于Testimonials隐私DisclaimerContact

感谢 arXiv、bioRxiv 和 medRxiv 提供的开放获取互操作性。

Gist.Science is a product of Bition B.V.
Verdunplein 17, 5627SZ Eindhoven
KvK: 95743731 | BTW-ID: NL867271966B01
mail@gist.science

荷兰制造 🇳🇱