VLN-Cache: Enabling Token Caching for VLN Models with Visual/Semantic Dynamics Awareness

VLN-Cache 通过引入视图对齐重映射和任务相关性显著性过滤机制,解决了现有 Token 缓存方法在视觉与语义动态变化下的失效问题,从而在保持导航成功率的同时显著提升了 VLN 模型的推理速度。

Zihao Zheng, Zhihao Mao, Xingyue Zhou, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Zhaobo Zhang, Xuanzhe Liu, Donggang Cao, Hong Mei, Xiang Chen2026-03-10🤖 cs.LG

wDPO: Winsorized Direct Preference Optimization for Robust LLM Alignment

本文提出了名为 wDPO 的鲁棒大语言模型对齐方法,通过利用 DPO 训练中的隐式边际信号实施分层干预策略(针对硬噪声进行数据级稀疏修正,针对模糊比较进行梯度级软截断),从而有效区分并处理不同类型的偏好噪声,显著提升了模型在含噪数据下的对齐质量与鲁棒性。

Jilong Liu, Yonghui Yang, Pengyang Shao, Haokai Ma, Wei Qin, Richang Hong2026-03-10🤖 cs.LG