Noisy PDE Training Requires Bigger PINNs

Cette étude démontre que l'entraînement efficace des réseaux de neurones informés par la physique (PINNs) sur des données bruitées exige une taille de modèle suffisamment grande, établissant une limite inférieure sur le nombre de paramètres nécessaire pour réduire l'erreur empirique en dessous de la variance du bruit, indépendamment de l'augmentation du nombre d'échantillons.

Sebastien Andre-Sloan, Anirbit Mukherjee, Matthew Colbrook2026-03-10🤖 cs.LG

Towards Practical Benchmarking of Data Cleaning Techniques: On Generating Authentic Errors via Large Language Models

Ce papier présente TableEG, un cadre exploitant des modèles de langage de grande taille pour générer des erreurs authentiques dans des données tabulaires, comblant ainsi le fossé entre les erreurs synthétiques et réelles afin d'établir un benchmark robuste pour l'évaluation des techniques de nettoyage de données.

Xinyuan Liu, Jiahui Chen, Bocheng Hu, Yu Sun, Xinyang Chen, Shaoxu Song, Yongxin Tong2026-03-10🤖 cs.LG

A Robust Incomplete Multimodal Low-Rank Adaptation Approach for Emotion Recognition

Cet article propose MCULoRA, une nouvelle approche d'adaptation faible rang dynamique et découplée par modalité qui surpasse les méthodes existantes pour la reconnaissance des émotions en résolvant les conflits de gradients lors de l'apprentissage avec des données multimodales incomplètes.

Xinkui Zhao, Jinsong Shu, Yangyang Wu, Guanjie Cheng, Zihe Liu, Naibo Wang, Shuiguang Deng, Zhongle Xie, Jianwei Yin2026-03-10💻 cs

Weak-to-Strong Generalization with Failure Trajectories: A Tree-based Approach to Elicit Optimal Policy in Strong Models

Cet article propose une approche basée sur des « arbres de trajectoires » et la recherche arborescente Monte Carlo pour étendre la généralisation faible-vers-forte aux environnements de décision complexes, en permettant aux modèles puissants d'apprendre non seulement des succès mais aussi des échecs générés par des modèles faibles.

Ruimeng Ye, Zihan Wang, Yang Xiao, Zinan Ling, Manling Li, Bo Hui2026-03-10🤖 cs.LG

Exposing the Illusion of Fairness: Auditing Vulnerabilities to Distributional Manipulation Attacks

Cet article révèle comment un audité malveillant peut manipuler un échantillon de données pour simuler une conformité aux critères d'équité tout en restant statistiquement représentatif, et propose des méthodes pour détecter ces attaques et renforcer les vérifications de supervision.

Valentin Lafargue, Adriana Laurindo Monteiro, Emmanuelle Claeys, Laurent Risser, Jean-Michel Loubes2026-03-10🤖 cs.LG

Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models

Cette étude présente le cadre de « red-teaming » dynamique, automatique et systématique (DAS) qui révèle un écart critique entre les performances statiques et la fiabilité réelle des modèles de langage médicaux, démontrant que la majorité des modèles échouent à des tests de stress continus en matière de robustesse, de confidentialité, d'équité et d'hallucinations malgré leurs scores élevés sur les benchmarks traditionnels.

Jiazhen Pan (Cherise), Bailiang Jian (Cherise), Paul Hager (Cherise), Yundi Zhang (Cherise), Che Liu (Cherise), Friedrike Jungmann (Cherise), Hongwei Bran Li (Cherise), Chenyu You (Cherise), Junde Wu (Cherise), Jiayuan Zhu (Cherise), Fenglin Liu (Cherise), Yuyuan Liu (Cherise), Niklas Bubeck (Cherise), Christian Wachinger (Cherise), Chen (Cherise), Chen (Cherise), Zhenyu Gong, Cheng Ouyang, Georgios Kaissis, Benedikt Wiestler, Daniel Rueckert2026-03-10🤖 cs.LG

CauKer: Classification Time Series Foundation Models Can Be Pretrained on Synthetic Data

Ce papier présente CauKer, un algorithme novateur combinant la composition de noyaux de processus gaussiens et des modèles causaux structurels pour générer des séries temporelles synthétiques causalement cohérentes, permettant un pré-entraînement efficace en échantillons de modèles de fondation pour la classification de séries temporelles et révélant des lois d'échelle claires absentes des données réelles.

Shifeng Xie, Vasilii Feofanov, Ambroise Odonnat, Lei Zan, Marius Alonso, Jianfeng Zhang, Themis Palpanas, Lujia Pan, Keli Zhang, Ievgen Redko2026-03-10🤖 cs.LG

GraphProp: Training the Graph Foundation Models using Graph Properties

L'article présente GraphProp, une méthode d'entraînement de modèles de fondation graphiques qui améliore la généralisation inter-domaines en deux phases : d'abord l'apprentissage de représentations structurelles via la prédiction d'invariants de graphes, puis l'intégration de ces représentations comme encodages de position pour affiner les modèles avec des attributs spécifiques aux domaines.

Ziheng Sun, Qi Feng, Lehao Lin, Chris Ding, Jicong Fan2026-03-10🤖 cs.LG

Time-Scale Coupling Between States and Parameters in Recurrent Neural Networks

Cet article démontre que les mécanismes de porte dans les réseaux de neurones récurrents agissent comme des préconditionneurs de l'optimisation pilotés par les données, en couplant les échelles de temps des états et des paramètres pour générer des taux d'apprentissage effectifs dépendants du délai et de la direction, ce qui explique la robustesse de l'entraînement de ces architectures.

Lorenzo Livi2026-03-10🤖 cs.LG

Constraint Learning in Multi-Agent Dynamic Games from Demonstrations of Local Nash Interactions

Cet article présente un algorithme d'apprentissage par jeu dynamique inverse utilisant des programmes linéaires en nombres entiers mixtes pour inférer des contraintes paramétriques à partir de démonstrations d'équilibres de Nash locaux, garantissant théoriquement l'approximation des ensembles sûrs et permettant de concevoir des trajectoires interactives robustes pour des agents à dynamique non linéaire.

Zhouyu Zhang, Chih-Yuan Chiu, Glen Chou2026-03-10🤖 cs.LG

CbLDM: A Diffusion Model for recovering nanostructure from atomic pair distribution function

Cette étude propose un modèle de diffusion latent conditionnel (CbLDM) qui utilise des priors conditionnels et une matrice Laplacienne pour résoudre de manière stable le problème inverse de reconstruction des nanostructures de nanoparticules métalliques à partir de leur fonction de distribution de paires atomiques.

Jiarui Cao, Zhiyang Zhang, Heming Wang, Jun Xu, Ling Lan, Simon J. L. Billinge, Ran Gu2026-03-10🔬 cond-mat.mtrl-sci

Entropy-Driven Curriculum for Multi-Task Training in Human Mobility Prediction

Cet article propose un cadre d'apprentissage unifié combinant un curriculum piloté par l'entropie et un apprentissage multi-tâches pour améliorer la prédiction de la mobilité humaine en organisant l'entraînement du simple au complexe et en intégrant des signaux d'apprentissage auxiliaires pour la distance et la direction, atteignant ainsi des performances de pointe lors du défi HuMob.

Tianye Fang, Xuanshu Luo, Martin Werner2026-03-10🤖 cs.LG