Thousand-GPU Large-Scale Training and Optimization Recipe for AI-Native Cloud Embodied Intelligence Infrastructure

Dit paper introduceert een cloudgebaseerd, duizend-GPU trainingsplatform voor embodied intelligence dat, door optimalisaties op het gebied van data, training, modelarchitectuur en infrastructuur, de trainingstijd van het GR00T-N1.5-model met een factor 40 heeft verkort en zo een cruciale basis legt voor de ontwikkeling van autonome robots.

Chen Zhou, Haoran Sun, Hedan Yang, Jing Long, Junwu Xiong, Luqiao Wang, Mingxi Luo, Qiming Yang, Shuai Di, Song Wang, Tianyun Zhao, Wanting Xu, Wen Huang, Xiaodong Bai, Xiaomeng Tian, Xiaolong Xiang, Yicheng Gong, Yongjian Guo, Yucheng Guo, Yunxuan Ma, Yu Wei, Zhong Guan, Zhen SunFri, 13 Ma🤖 cs.AI

Decentralized Orchestration Architecture for Fluid Computing: A Secure Distributed AI Use Case

Dit paper introduceert een gedecentraliseerde, domein-agnostische orkestratiearchitectuur voor Fluid Computing die multi-domein samenwerking mogelijk maakt en Byzantine-beveiliging verbetert via een SDN-gestuurde anomaliedetectie (FU-HST) voor decentrale federatief leren.

Diego Cajaraville-Aboy, Ana Fernández-Vilas, Rebeca P. Díaz-Redondo, Manuel Fernández-Veiga, Pablo Picallo-LópezFri, 13 Ma🤖 cs.LG

Universal Pattern Formation by Oblivious Robots Under Sequential Schedulers

Dit artikel bewijst dat vergetelijke robots onder sequentiële schedulers een orthogonale en over het algemeen sterkere rekenkracht bezitten dan onder volledig synchrone schedulers, waardoor het Universele Patroonvormingsprobleem (behalve bij verzameling) zonder extra aannames oplosbaar is, terwijl verzameling juist zwakke multipliciteitsdetectie vereist.

Paola Flocchini, Alfredo Navarra, Debasish Pattanayak + 2 more2026-03-06💻 cs

Modality Inflation: Energy Characterization and Optimization Opportunities for MLLM Inference

Dit artikel analyseert voor het eerst de energie-efficiëntie van multimodale grote taalmodellen (MLLM's) door 'modality inflation' te onderzoeken, waarbij het verschillende energieknelpunten identificeert en aantoont dat dynamische spannings- en frequentieschaling (DVFS) aanzienlijke energiebesparingen mogelijk maakt met slechts een beperkte impact op de prestaties.

Mona Moghadampanah, Adib Rezaei Shahmirzadi, Farhana Amin + 1 more2026-03-06💻 cs

Classification of Local Optimization Problems in Directed Cycles

Dit artikel presenteert een volledige classificatie van de gedistribueerde complexiteit voor lokale optimalisatieproblemen in gerichte cycli, waarbij het aantoont dat de complexiteit voor zowel deterministische als probabilistische modellen valt binnen één van vier specifieke klassen en dat deze klasse automatisch kan worden bepaald en een optimale algoritme kan worden gegenereerd.

Thomas Boudier, Fabian Kuhn, Augusto Modanese + 2 more2026-03-06💻 cs

FedEMA-Distill: Exponential Moving Average Guided Knowledge Distillation for Robust Federated Learning

Het artikel introduceert FedEMA-Distill, een serverzijde methode voor federatief leren die exponentiële voortschrijdende gemiddelden en kennisdistillatie op basis van client-logits combineert om de nauwkeurigheid te verhogen, de communicatiekosten te verlagen en de weerstand tegen Byzantijnse aanvallen te vergroten, zonder aanpassingen aan de client-zijde of modelhomogeniteit te vereisen.

Hamza Reguieg, Mohamed El Kamili, Essaid Sabir2026-03-06💻 cs

Overcoming Latency-bound Limitations of Distributed Graph Algorithms using the HPX Runtime System

Dit artikel presenteert een prototype voor een gedistribueerde bibliotheek die drie kerngrafiekalgoritmen implementeert met behulp van het HPX-runtime-systeem, waarmee door middel van asynchrone uitvoering en latency-hiding een aanzienlijke prestatieverbetering wordt bereikt ten opzichte van bestaande frameworks zoals GraphX en PBGL.

Karame Mohammadiporshokooh, Panagiotis Syskakis, Andrew Lumsdaine + 1 more2026-03-06💻 cs