Domain Generalization and Adaptation in Intensive Care with Anchor Regression

Cette étude présente une analyse à grande échelle de l'ancrage et du boosting d'ancrage pour améliorer la généralisation des modèles prédictifs en soins intensifs face aux décalages de distribution entre hôpitaux, tout en définissant un cadre conceptuel pour déterminer quand utiliser, adapter ou ignorer les données externes en fonction de la disponibilité des données cibles.

Malte Londschien, Manuel Burger, Gunnar Rätsch + 1 more2026-03-03📊 stat

Regime-Aware Conditional Neural Processes with Multi-Criteria Decision Support for Operational Electricity Price Forecasting

Cette étude propose un modèle de prévision des prix de l'électricité en Allemagne combinant la détection de régimes bayésienne et des processus neuronaux conditionnels, démontrant via une évaluation multicritère (TOPSIS) que cette approche offre une solution plus équilibrée et performante pour l'optimisation opérationnelle que les modèles d'apprentissage profond ou linéaires sur la période 2021-2023.

Abhinav Das, Stephan Schlüter2026-03-03📊 stat

DisTaC: Conditioning Task Vectors via Distillation for Robust Model Merging

Ce papier présente DisTaC, une méthode innovante qui utilise la distillation de connaissances pour pré-conditionner les vecteurs de tâches en ajustant leurs normes et en augmentant la confiance des modèles sources, permettant ainsi d'améliorer considérablement la robustesse et les performances du fusionnement de modèles dans des scénarios réalistes.

Kotaro Yoshida, Yuji Naraki, Takafumi Horie + 2 more2026-03-03🤖 cs.LG

HGTS-Former: Hierarchical HyperGraph Transformer for Multivariate Time Series Analysis

Cet article propose HGTS-Former, un nouveau modèle Transformer basé sur des hypergraphes hiérarchiques conçu pour améliorer l'analyse des séries temporelles multivariées en capturant les interactions complexes entre les variables, tout en présentant le nouveau jeu de données à grande échelle EAST-ELM640 pour la reconnaissance des modes localisés de bord (ELM) dans la fusion nucléaire.

Hao Si, Xiao Wang, Fan Zhang + 5 more2026-03-03🤖 cs.AI

Sample-Efficient Distributionally Robust Multi-Agent Reinforcement Learning via Online Interaction

Cet article présente l'algorithme MORNAVI, une méthode d'apprentissage en ligne pour les jeux de Markov robustes distribués qui permet aux agents d'apprendre directement par interaction avec l'environnement sans données préalables, tout en offrant les premières garanties théoriques de faible regret pour des ensembles d'incertitude mesurés par les divergences de variation totale et de Kullback-Leibler.

Zain Ulabedeen Farhat, Debamita Ghosh, George K. Atia + 1 more2026-03-03🤖 cs.LG

Next Generation Equation-Free Multiscale Modelling of Crowd Dynamics via Machine Learning

Cet article propose une approche d'apprentissage automatique informée par la variété pour modéliser la dynamique des foules à l'échelle macroscopique en apprenant un opérateur d'évolution dans un espace latent de faible dimension, tout en garantissant la conservation de la masse lors du passage des données microscopiques aux champs macroscopiques et inversement.

Hector Vargas Alvarez, Dimitrios G. Patsatzis, Lucia Russo + 2 more2026-03-03🤖 cs.LG

Do Vision-Language Models Leak What They Learn? Adaptive Token-Weighted Model Inversion Attacks

Cette étude présente la première analyse systématique des risques de fuite de données d'entraînement dans les modèles vision-langage via des attaques d'inversion de modèle, en proposant une nouvelle méthode d'optimisation adaptative (SMI-AW) qui démontre la vulnérabilité de ces modèles à reconstruire des images privées avec une précision significative.

Ngoc-Bao Nguyen, Sy-Tuyen Ho, Koh Jun Hao + 1 more2026-03-03🤖 cs.LG

Agnostics: Learning to Code in Any Programming Language via Reinforcement with a Universal Learning Environment

Le papier présente Agnostics, un pipeline d'entraînement par renforcement universel qui permet d'apprendre à coder dans n'importe quel langage de programmation, y compris les ressources limitées, en se basant uniquement sur le comportement observable du code via un vérificateur unique, éliminant ainsi le besoin d'ingénierie spécifique par langage et établissant de nouveaux états de l'art pour les modèles de taille inférieure à 16 milliards de paramètres.

Aleksander Boruch-Gruszecki, Yangtian Zi, Zixuan Wu + 4 more2026-03-03🤖 cs.LG

MOON: Generative MLLM-based Multimodal Representation Learning for E-commerce Product Understanding

Ce papier présente MOON, le premier modèle génératif basé sur un grand modèle de langage multimodal (MLLM) conçu pour l'apprentissage de représentations produits dans le commerce électronique, qui surmonte les limites des architectures discriminatives existantes grâce à un module MoE guidé, une détection de régions sémantiques clés et une stratégie d'échantillonnage négatif, tout en introduisant un nouveau benchmark multimodal à grande échelle nommé MBE.

Daoze Zhang, Chenghan Fu, Zhanheng Nie + 7 more2026-03-03🤖 cs.AI

MMQ: Multimodal Mixture-of-Quantization Tokenization for Semantic ID Generation and User Behavioral Adaptation

Ce papier propose MMQ, un cadre innovant de tokenisation multimodale par mélange de quantification qui surmonte les limites des identifiants traditionnels en unifiant la synergie inter-modale et l'adaptation comportementale pour générer des identifiants sémantiques scalables et performants dans les systèmes de recommandation.

Yi Xu, Moyu Zhang, Chenxuan Li + 7 more2026-03-03🤖 cs.LG

Modeling User Preferences as Distributions for Optimal Transport-Based Cross-Domain Recommendation under Non-Overlapping Settings

Le papier propose DUP-OT, un cadre novateur pour la recommandation inter-domaines sans chevauchement d'utilisateurs ou d'articles, qui modélise les préférences utilisateurs sous forme de distributions gaussiennes et utilise le transport optimal pour transférer efficacement les connaissances et améliorer les prédictions de notation pour les utilisateurs en démarrage à froid.

Ziyin Xiao, Toyotaro Suzumura2026-03-03🤖 cs.LG

Optimal Sparsity of Mixture-of-Experts Language Models for Reasoning Tasks

Cette étude démontre que pour les modèles de type Mixture-of-Experts, l'optimisation des tâches de raisonnement ne dépend pas uniquement de la perte d'entraînement, mais repose sur un équilibre conjoint entre le nombre de FLOPs actifs et le nombre de tokens par paramètre, contrairement aux tâches de mémorisation qui bénéficient principalement d'une augmentation du nombre total de paramètres.

Taishi Nakamura, Satoki Ishikawa, Masaki Kawamura + 4 more2026-03-03💬 cs.CL

Optimal information injection and transfer mechanisms for active matter reservoir computing

Cette étude démontre que l'injection d'information via une force motrice non linéaire dans un système de matière active permet d'optimiser le calcul par réservoir en activant des mécanismes régulateurs émergents, révélant que les agents formant des gouttes liquides constituent des substrats particulièrement efficaces et robustes pour ce type de traitement de l'information.

Mario U. Gaimann, Miriam Klopotek2026-03-03🌀 nlin

Gaming and Cooperation in Federated Learning: What Can Happen and How to Monitor It

Cet article propose un cadre analytique et un ensemble d'outils de conception pour modéliser les comportements stratégiques dans l'apprentissage fédéré, permettant de distinguer la coopération bénéfique du jeu de métriques et de définir des règles de gouvernance pour maximiser le bien-être collectif tout en limitant les manipulations.

Dongseok Kim, Hyoungsun Choi, Mohamed Jismy Aashik Rasool + 1 more2026-03-03📊 stat