Long-Short Term Agents for Pure-Vision Bronchoscopy Robotic Autonomy

该论文提出了一种仅依赖视觉的自主支气管镜导航框架,通过长短期智能体协同与世界模型批判机制,在无外部追踪传感器的情况下实现了高精度的机器人自主导航,并在体内外实验中验证了其达到专家水平的可行性。

Junyang Wu, Mingyi Luo, Fangfang Xie, Minghui Zhang, Hanxiao Zhang, Chunxi Zhang, Junhao Wang, Jiayuan Sun, Yun Gu, Guang-Zhong Yang2026-03-10💻 cs

Rel-MOSS: Towards Imbalanced Relational Deep Learning on Relational Databases

本文针对关系数据库中实体分类任务存在的类别不平衡问题,提出了关系中心的小样本合成过采样图神经网络模型 Rel-MOSS,通过设计关系门控控制器和关系引导合成器来增强少数类信息表达与一致性,显著提升了模型在平衡准确率和几何平均数上的性能。

Jun Yin, Peng Huo, Bangguo Zhu, Hao Yan, Senzhang Wang, Shirui Pan, Chengqi Zhang2026-03-10🤖 cs.LG

IMSE: Intrinsic Mixture of Spectral Experts Fine-tuning for Test-Time Adaptation

本文提出了 IMSE 方法,通过仅微调预训练视觉 Transformer 线性层的奇异值(即谱专家)并引入基于专家输入对齐的多样性最大化损失以解决特征坍塌问题,结合域感知谱码检索机制,在显著减少可训练参数量的同时实现了测试时适应及持续测试时适应任务中的最先进性能。

Sunghyun Baek (Korea Advanced Institute of Science and Technology), Jaemyung Yu (Korea Advanced Institute of Science and Technology), Seunghee Koh (Korea Advanced Institute of Science and Technology), Minsu Kim (LG Energy Solution), Hyeonseong Jeon (LG Energy Solution), Junmo Kim (Korea Advanced Institute of Science and Technology)2026-03-10💻 cs

ELLMob: Event-Driven Human Mobility Generation with Self-Aligned LLM Framework

该论文针对现有大语言模型在生成受重大社会事件影响的人类轨迹时难以平衡习惯模式与事件约束的局限,构建了首个事件标注移动数据集,并提出了基于模糊痕迹理论的自对齐大语言模型框架 ELLMob,通过提取并迭代对齐竞争推理来生成兼具习惯基础与事件响应性的轨迹,实验表明其性能优于现有最先进方法。

Yusong Wang, Chuang Yang, Jiawei Wang, Xiaohang Xu, Jiayi Xu, Dongyuan Li, Chuan Xiao, Renhe Jiang2026-03-10🤖 cs.LG

Advancing Automated Algorithm Design via Evolutionary Stagewise Design with LLMs

本文提出了名为 EvoStage 的新型进化范式,通过将算法设计分解为多阶段并结合多智能体与全局 - 局部视角机制,有效解决了大语言模型在自动化算法设计中的幻觉问题,并在芯片布局等工业场景中实现了超越人类专家及现有方法的性能突破。

Chen Lu, Ke Xue, Chengrui Gao, Yunqi Shi, Siyuan Xu, Mingxuan Yuan, Chao Qian, Zhi-Hua Zhou2026-03-10💻 cs

Adaptive Collaboration with Humans: Metacognitive Policy Optimization for Multi-Agent LLMs with Continual Learning

该论文提出了 HILA 框架,通过引入包含成本感知奖励的 GRPO 内循环与将专家反馈转化为监督信号的外循环持续学习机制,使多智能体系统能够学习元认知策略以动态决定自主解决或向人类专家求助,从而突破静态知识限制并实现持续进化的协作能力。

Wei Yang, Defu Cao, Jiacheng Pang, Muyan Weng, Yan Liu2026-03-10💻 cs

VORL-EXPLORE: A Hybrid Learning Planning Approach to Multi-Robot Exploration in Dynamic Environments

本文提出了 VORL-EXPLORE 框架,通过引入表征局部可导航性的“执行保真度”信号,将任务分配与运动执行紧密耦合,并结合 Voronoi 优化与风险自适应仲裁机制,有效解决了动态密集环境中多机器人探索易出现的拥塞、振荡及冗余覆盖问题。

Ning Liu, Sen Shen, Zheng Li, Sheng Liu, Dongkun Han, Shangke Lyu, Thomas Braunl2026-03-10💻 cs

OSExpert: Computer-Use Agents Learning Professional Skills via Exploration

该论文提出了 OSExpert 框架,通过基于深度优先搜索的 GUI 探索算法自动发现并构建细粒度动作原语与技能组合课程,显著提升了通用计算机使用代理在复杂任务中的表现(提升约 20%)及效率(缩小与人类差距约 80%),使其更接近专家水平。

Jiateng Liu, Zhenhailong Wang, Rushi Wang, Bingxuan Li, Jeonghwan Kim, Aditi Tiwari, Pengfei Yu, Denghui Zhang, Heng Ji2026-03-10💻 cs

\$OneMillion-Bench: How Far are Language Agents from Human Experts?

本文提出了\$OneMillion-Bench,一个涵盖法律、金融、工业、医疗和自然科学五大领域的专家级基准测试,旨在通过评估语言智能体在权威信息检索、矛盾证据处理及专业规则应用等复杂场景中的表现,衡量其从聊天助手向具备专业深度与可靠性的长程智能体迈进的程度。

Qianyu Yang, Yang Liu, Jiaqi Li, Jun Bai, Hao Chen, Kaiyuan Chen, Tiliang Duan, Jiayun Dong, Xiaobo Hu, Zixia Jia, Yang Liu, Tao Peng, Yixin Ren, Ran Tian, Zaiyuan Wang, Yanglihong Xiao, Gang Yao, Lingyue Yin, Ge Zhang, Chun Zhang, Jianpeng Jiao, Zilong Zheng, Yuan Gong2026-03-10🤖 cs.LG

CMMR-VLN: Vision-and-Language Navigation via Continual Multimodal Memory Retrieval

该论文提出了 CMMR-VLN 框架,通过构建基于全景视觉和显著地标的多模态经验记忆库、引入检索增强生成机制以及实施基于反思的记忆更新策略,有效弥补了现有大语言模型在长程和陌生场景下缺乏选择性调用先验经验能力的不足,显著提升了视觉语言导航任务的成功率。

Haozhou Li, Xiangyu Dong, Huiyan Jiang, Yaoming Zhou, Xiaoguang Ma2026-03-10💻 cs

Aero-Promptness: Drag-Aware Aerodynamic Manipulability for Propeller-driven Vehicles

本文提出了一种名为“拖曳感知气动操纵性(DAAM)”的几何框架,通过引入基于剩余对称加速度能力的黎曼度量,将电机扭矩限制与气动阻力显式纳入冗余多旋翼飞行器的控制分配中,从而生成一种对广义力空间坐标缩放具有不变性、能自动规避阻力饱和并解析其全局跳变不连续性的状态相关最优分配策略。

Antonio Franchi2026-03-10🔢 math

ViSA-Enhanced Aerial VLN: A Visual-Spatial Reasoning Enhanced Framework for Aerial Vision-Language Navigation

该论文提出了一种名为 ViSA 的视觉 - 空间推理增强框架,通过三阶段协作架构利用结构化视觉提示使视觉语言模型直接在图像平面上进行推理,从而克服了现有空中视觉语言导航方法在空间推理和语言歧义方面的瓶颈,并在 CityNav 基准测试中实现了比最先进方法高出 70.3% 的成功率。

Haoyu Tong, Xiangyu Dong, Xiaoguang Ma, Haoran Zhao, Yaoming Zhou, Chenghao Lin2026-03-10💻 cs