TS-MLLM: A Multi-Modal Large Language Model-based Framework for Industrial Time-Series Big Data Analysis

Cet article présente TS-MLLM, un cadre unifié de modèle de langage multimodal conçu pour l'analyse des données temporelles industrielles en intégrant dynamiquement les signaux temporels, les représentations visuelles fréquentielles et les connaissances textuelles afin d'améliorer la gestion de la santé et la prédiction des équipements.

Haiteng Wang, Yikang Li, Yunfei Zhu, Jingheng Yan, Lei Ren, Laurence T. Yang2026-03-10🤖 cs.LG

Integration of deep generative Anomaly Detection algorithm in high-speed industrial line

Cet article présente un cadre semi-supervisé d'analyse d'anomalies basé sur une architecture générative adversaire, conçu pour être déployé en ligne sur une chaîne de production pharmaceutique haute vitesse (Blow-Fill-Seal) afin de détecter et localiser les défauts avec une grande précision tout en respectant des contraintes de temps strictes.

Niccolò Ferrari, Nicola Zanarini, Michele Fraccaroli, Alice Bizzarri, Evelina Lamma2026-03-10🤖 cs.LG

Models as Lego Builders: Assembling Malice from Benign Blocks via Semantic Blueprints

Ce papier présente StructAttack, une méthode de contournement de sécurité qui exploite la capacité de raisonnement des modèles vision-langage pour assembler des blocs visuels bénins en une structure cohérente et malveillante via un remplissage de slots sémantiques, permettant ainsi de générer des réponses dangereuses sans déclencher les mécanismes de protection.

Chenxi Li, Xianggan Liu, Dake Shen, Yaosong Du, Zhibo Yao, Hao Jiang, Linyi Jiang, Chengwei Cao, Jingzhe Zhang, RanYi Peng, Peiling Bai, Xiande Huang2026-03-10🤖 cs.LG

MAS-H2: A Hierarchical Multi-Agent System for Holistic Cloud-Native Autoscaling

Cet article présente MAS-H2, un système multi-agents hiérarchique conçu pour Kubernetes qui résout le problème du vide stratégique en décomposant l'autoscaling en trois couches (stratégique, planification et exécution), permettant ainsi une gestion proactive des ressources qui réduit significativement la charge CPU et les coûts par rapport aux solutions natives.

Hamed Hamzeh, Parisa Vahdatian2026-03-10🤖 cs.LG

Compression as Adaptation: Implicit Visual Representation with Diffusion Foundation Models

Ce papier propose un nouveau cadre de représentation visuelle implicite qui encode les signaux comme des fonctions paramétrées par des adaptations à faible rang sur un modèle génératif gelé, permettant ainsi une compression vidéo perceptuelle extrêmement efficace et unifiée avec la génération.

Jiajun He, Zongyu Guo, Zhaoyang Jia, Xiaoyi Zhang, Jiahao Li, Xiao Li, Bin Li, José Miguel Hernández-Lobato, Yan Lu2026-03-10🤖 cs.LG

Helix: Evolutionary Reinforcement Learning for Open-Ended Scientific Problem Solving

Le papier présente HELIX, un cadre d'apprentissage par renforcement évolutionnaire hiérarchique intégrant des expériences en contexte, qui améliore la résolution de problèmes scientifiques ouverts et dépasse les performances des modèles actuels sur des tâches complexes comme l'empaquetage de cercles et des benchmarks d'apprentissage automatique.

Chang Su, Zhongkai Hao, Zhizhou Zhang, Zeyu Xia, Youjia Wu, Hang Su, Jun Zhu2026-03-10🤖 cs.LG

Evaluating Synthetic Data for Baggage Trolley Detection in Airport Logistics

Cet article présente une pipeline de génération de données synthétiques basée sur un jumeau numérique de l'aéroport d'Alger pour entraîner un détecteur de chariots à bagages, démontrant que l'entraînement mixte avec ces données et seulement 40 % d'annotations réelles permet d'atteindre des performances équivalentes à l'utilisation de l'ensemble des données réelles tout en réduisant l'effort d'annotation de 25 à 35 %.

Abdeldjalil Taibi, Mohmoud Badlis, Amina Bensalem, Belkacem Zouilekh, Mohammed Brahimi2026-03-10🤖 cs.LG

Compressed Proximal Federated Learning for Non-Convex Composite Optimization on Heterogeneous Data

Cet article propose FedCEF, un nouvel algorithme de fédéré pour l'optimisation composite non convexe qui combine une mise à jour proximale découplée, un mécanisme de rétroaction d'erreur et une stratégie de reconstruction descendante pour garantir une convergence robuste et une efficacité communicationnelle élevée, même avec des données hétérogènes et une compression agressive.

Pu Qiu, Chen Ouyang, Yongyang Xiong, Keyou You, Wanquan Liu, Yang Shi2026-03-10🤖 cs.LG

Partial Differential Equations in the Age of Machine Learning: A Critical Synthesis of Classical, Machine Learning, and Hybrid Methods

Cet article propose une synthèse critique des méthodes numériques classiques et des approches d'apprentissage machine pour la résolution d'équations aux dérivées partielles, en soulignant leurs distinctions épistémologiques fondamentales et en établissant des principes pour la conception de méthodes hybrides efficaces.

Mohammad Nooraiepour, Jakub Wiktor Both, Teeratorn Kadeethum, Saeid Sadeghnejad2026-03-10🤖 cs.LG

Mitigating the Memory Bottleneck with Machine Learning-Driven and Data-Aware Microarchitectural Techniques

Cette thèse propose de surmonter le goulot d'étranglement de la mémoire en faisant évoluer la conception microarchitecturale d'une approche agnostique des données vers une approche informée par les données, en utilisant des techniques d'apprentissage automatique et l'exploitation des caractéristiques sémantiques pour optimiser significativement les performances et l'efficacité énergétique.

Rahul Bera2026-03-10🤖 cs.LG

Scalable Training of Mixture-of-Experts Models with Megatron Core

Ce rapport présente les optimisations intégrées de Megatron Core pour le entraînement évolutif des modèles à mélange d'experts (MoE), couvrant la mémoire, la communication et le calcul afin d'atteindre des performances élevées sur des clusters massifs tout en offrant une solution open-source prête pour la production.

Zijie Yan (NVIDIA), Hongxiao Bai (NVIDIA), Xin Yao (NVIDIA), Dennis Liu (NVIDIA), Tong Liu (NVIDIA), Hongbin Liu (NVIDIA), Pingtian Li (NVIDIA), Evan Wu (NVIDIA), Shiqing Fan (NVIDIA), Li Tao (NVIDIA), Robin Zhang (NVIDIA), Yuzhong Wang (NVIDIA), Shifang Xu (NVIDIA), Jack Chang (NVIDIA), Xuwen Chen (NVIDIA), Kunlun Li (NVIDIA), Yan Bai (NVIDIA), Gao Deng (NVIDIA), Nan Zheng (NVIDIA), Vijay Anand Korthikanti (NVIDIA), Abhinav Khattar (NVIDIA), Ethan He (NVIDIA), Soham Govande (NVIDIA), Sangkug Lym (NVIDIA), Zhongbo Zhu (NVIDIA), Qi Zhang (NVIDIA), Haochen Yuan (NVIDIA), Xiaowei Ren (NVIDIA), Deyu Fu (NVIDIA), Tailai Ma (NVIDIA), Shunkang Zhang (NVIDIA), Jiang Shao (NVIDIA), Ray Wang (NVIDIA), Santosh Bhavani (NVIDIA), Xipeng Li (NVIDIA), Chandler Zhou (NVIDIA), David Wu (NVIDIA), Yingcan Wei (NVIDIA), Ashwath Aithal (NVIDIA), Michael Andersch (NVIDIA), Mohammad Shoeybi (NVIDIA), Jiajie Yao (NVIDIA), June Yang (NVIDIA)2026-03-10🤖 cs.LG