Agentic AI-Driven UAV Network Deployment: A LLM-Enhanced Exact Potential Game Approach

本文提出了一种融合大语言模型(LLM)的代理智能驱动框架,通过结合对数线性学习与近似梯度的精确势博弈算法,在宏观链路配置与微观部署优化两个尺度上协同解决无人机网络拓扑优化中的混合整数非凸难题,从而在动态环境下显著提升网络能效、吞吐量并降低时延。

Xin Tang, Qian Chen, Binhan Liao, Yaqi Zhang, Jianxin Chen, Changyuan Zhao, Junchuan Fan, Junxi Tian, Xiaohuan LiTue, 10 Ma💻 cs

MAS-H2: A Hierarchical Multi-Agent System for Holistic Cloud-Native Autoscaling

本文提出了 MAS-H2,一种基于分层多智能体系统的云原生自动扩缩容方案,它通过将业务策略转化为全局效用函数并实施端到端的预测性规划与执行,有效解决了传统方案中策略与资源脱节的问题,在降低 CPU 负载峰值、应对突发流量及实现零停机战略迁移方面显著优于原生 Kubernetes 自动扩缩容机制。

Hamed Hamzeh, Parisa VahdatianTue, 10 Ma🤖 cs.LG

Performance Evaluation of Automated Multi-Service Deployment in Edge-Cloud Environments with the CODECO Toolkit

本文评估了开源框架 CODECO 在异构边缘云环境中自动化部署多服务应用的能力,实验表明其相较于基础 Kubernetes 工作流能显著减少人工干预,同时保持具有竞争力的运行时性能与资源利用率。

Georgios Koukis, Ioannis Dermentzis, Vassilis Tsaoussidis, Jan Lenke, Fabian Wolk, Daniel Uceda, Guillermo Sanchez, Miguel A. Puentes, Javier Serrano, Panagiotis Karamolegkos, Rute C. SofiaTue, 10 Ma💻 cs

Scalable Training of Mixture-of-Experts Models with Megatron Core

本文介绍了 Megatron Core 中针对混合专家(MoE)模型可扩展训练的系统级协同优化方案,通过整合内存、通信和计算层面的多项创新技术,在 NVIDIA GB300/GB200 集群上实现了 DeepSeek-V3 和 Qwen3 等超大规模模型的高效、生产就绪型训练。

Zijie Yan (NVIDIA), Hongxiao Bai (NVIDIA), Xin Yao (NVIDIA), Dennis Liu (NVIDIA), Tong Liu (NVIDIA), Hongbin Liu (NVIDIA), Pingtian Li (NVIDIA), Evan Wu (NVIDIA), Shiqing Fan (NVIDIA), Li Tao (NVIDIA), Robin Zhang (NVIDIA), Yuzhong Wang (NVIDIA), Shifang Xu (NVIDIA), Jack Chang (NVIDIA), Xuwen Chen (NVIDIA), Kunlun Li (NVIDIA), Yan Bai (NVIDIA), Gao Deng (NVIDIA), Nan Zheng (NVIDIA), Vijay Anand Korthikanti (NVIDIA), Abhinav Khattar (NVIDIA), Ethan He (NVIDIA), Soham Govande (NVIDIA), Sangkug Lym (NVIDIA), Zhongbo Zhu (NVIDIA), Qi Zhang (NVIDIA), Haochen Yuan (NVIDIA), Xiaowei Ren (NVIDIA), Deyu Fu (NVIDIA), Tailai Ma (NVIDIA), Shunkang Zhang (NVIDIA), Jiang Shao (NVIDIA), Ray Wang (NVIDIA), Santosh Bhavani (NVIDIA), Xipeng Li (NVIDIA), Chandler Zhou (NVIDIA), David Wu (NVIDIA), Yingcan Wei (NVIDIA), Ashwath Aithal (NVIDIA), Michael Andersch (NVIDIA), Mohammad Shoeybi (NVIDIA), Jiajie Yao (NVIDIA), June Yang (NVIDIA)Tue, 10 Ma🤖 cs.LG

RAPID: Redundancy-Aware and Compatibility-Optimal Edge-Cloud Partitioned Inference for Diverse VLA models

针对现有边缘云协同推理框架在处理视觉语言动作(VLA)模型时易受视觉噪声干扰且忽视任务冗余导致运动不连续的问题,本文提出了名为 RAPID 的新框架,通过冗余感知与兼容性优化实现了最高 1.73 倍的推理加速,同时仅引入 5%~7% 的额外开销。

Zihao Zheng, Sicheng Tian, Hangyu Cao, Chenyue Li, Jiayu Chen, Maoliang Li, Xinhao Sun, Hailong Zou, Guojie Luo, Xiang ChenTue, 10 Ma💻 cs

SI-ChainFL: Shapley-Incentivized Secure Federated Learning for High-Speed Rail Data Sharing

本文提出了 SI-ChainFL 框架,通过结合考虑稀有事件效用、数据多样性、质量及时效性的夏普利值激励机制与基于区块链的去中心化聚合协议,有效解决了高铁数据共享中联邦学习面临的激励不足和单点故障问题,在抵御恶意攻击的同时显著提升了模型聚合的准确性与安全性。

Mingjie Zhao, Cheng Dai, Fei Chen, Xin Chen, Kaoru Ota, Mianxiong Dong, Bing GuoTue, 10 Ma💻 cs

SafarDB: FPGA-Accelerated Distributed Transactions via Replicated Data Types

本文提出了 SafarDB,一种通过将 FPGA 加速器卡直接连接至网络并协同设计网络附加复制引擎与 FPGA 驻留网络接口,从而实现冲突自由复制数据类型(CRDTs)和协调复制数据类型(WRDTs)的 FPGA 加速分布式事务系统,该系统在延迟、吞吐量及故障恢复能力上均显著优于现有的基于 RDMA 的实现方案。

Javad Saberlatibari, Prithviraj Yuvaraj, Mohsen Lesani, Philip Brisk, Mohammad SadoghiTue, 10 Ma💻 cs

Covenant-72B: Pre-Training a 72B LLM with Trustless Peers Over-the-Internet

该论文介绍了 Covenant-72B,这是首个利用区块链协议实现完全开放、无需许可的参与,并通过高效稀疏优化器 SparseLoCo 在动态变化的全球分布式网络中成功预训练的 720 亿参数大语言模型,证明了在大规模去中心化场景下训练出具有竞争力的基础模型是可行的。

Joel Lidin, Amir Sarfi, Erfan Miahi, Quentin Anthony, Shivam Chauhan, Evangelos Pappas, Benjamin Thérien, Eugene Belilovsky, Samuel DareTue, 10 Ma🤖 cs.LG