Thousand-GPU Large-Scale Training and Optimization Recipe for AI-Native Cloud Embodied Intelligence Infrastructure

该论文介绍了业界首个基于千卡 GPU 集群和 LeRobot 框架的云端具身智能训练平台,通过重构数据流水线、优化模型训练算法(如 FlashAttention、FP8 量化)及构建弹性基础设施,将 GR00T-N1.5 模型训练速度提升 40 倍,并建立了端到端评估闭环,为下一代自主智能机器人奠定了关键技术基础。

Chen Zhou, Haoran Sun, Hedan Yang, Jing Long, Junwu Xiong, Luqiao Wang, Mingxi Luo, Qiming Yang, Shuai Di, Song Wang, Tianyun Zhao, Wanting Xu, Wen Huang, Xiaodong Bai, Xiaomeng Tian, Xiaolong Xiang, Yicheng Gong, Yongjian Guo, Yucheng Guo, Yunxuan Ma, Yu Wei, Zhong Guan, Zhen SunFri, 13 Ma🤖 cs.AI

Universal Pattern Formation by Oblivious Robots Under Sequential Schedulers

该论文证明了在平面中由顺序调度器控制的无记忆机器人,其解决通用模式形成问题的能力远超全同步调度器下的机器人,具体而言,除需弱多重性检测的聚集问题外,通用模式形成在顺序调度下无需额外假设即可求解,而在全同步调度下即使具备强能力也无法解决。

Paola Flocchini, Alfredo Navarra, Debasish Pattanayak + 2 more2026-03-06💻 cs

Classification of Local Optimization Problems in Directed Cycles

该论文针对有向环上的局部优化问题,在确定性和本地随机化 LOCAL 模型中给出了完整的分布式计算复杂度分类,证明了其复杂度必然属于 O(1)O(1)Θ(logn)\Theta(\log^* n)Θ(n)\Theta(n) 中的某一类,并提出了能够自动判定复杂度类别及合成最优分布式算法的高效元算法。

Thomas Boudier, Fabian Kuhn, Augusto Modanese + 2 more2026-03-06💻 cs

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

本文提出了 FedEMA-Distill,一种通过结合全局模型指数移动平均与基于公共代理数据集的客户端预测 logits 集成知识蒸馏的服务器端方法,在无需修改客户端软件且支持模型异构的前提下,显著提升了联邦学习在非独立同分布数据及拜占庭攻击下的准确率、收敛速度并大幅降低了通信开销。

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs