Tabular foundation model for GEOAI benchmark problems BM/AirportSoilProperties/2/2025

Cette étude démontre que le modèle de fondation TabPFN, appliqué sans entraînement aux problèmes de caractérisation géotechnique du benchmark GEOAI, surpasse les modèles bayésiens hiérarchiques traditionnels en précision et en efficacité pour la prédiction spatiale et l'imputation de données, marquant ainsi une avancée significative dans le domaine.

Taiga Saito, Yu Otake, Stephen Wu2026-03-04🤖 cs.LG

The Choice of Divergence: A Neglected Key to Mitigating Diversity Collapse in Reinforcement Learning with Verifiable Reward

Cet article propose le cadre DPH-RL, qui utilise des divergences f couvrant la masse (comme la KL directe) comme mécanisme de répétition pour préserver la diversité des solutions et améliorer les performances Pass@k et Pass@1 dans l'apprentissage par renforcement avec récompense vérifiable, tout en évitant l'oubli catastrophique et en réduisant les coûts de calcul.

Long Li, Zhijian Zhou, Jiaran Hao + 9 more2026-03-04🤖 cs.AI

ScaleDoc: Scaling LLM-based Predicates over Large Document Collections

Le système ScaleDoc accélère l'analyse sémantique de vastes collections de documents en découplant l'exécution des prédicats en une phase de représentation hors ligne et une phase de filtrage en ligne optimisée, utilisant un modèle proxy léger et un mécanisme de cascade adaptatif pour réduire considérablement les coûts d'inférence des LLM tout en garantissant la précision.

Hengrui Zhang, Yulong Hui, Yihao Liu + 1 more2026-03-04🤖 cs.AI

Towards a more realistic evaluation of machine learning models for bearing fault diagnosis

Cet article propose une méthodologie d'évaluation rigoureuse et exempte de fuites de données pour le diagnostic de défauts de roulements, en mettant l'accent sur une partition des données par roulement et une formulation multi-étiquettes afin d'améliorer la généralisation et la fiabilité des modèles d'apprentissage automatique dans des applications industrielles réalistes.

João Paulo Vieira, Victor Afonso Bauler, Rodrigo Kobashikawa Rosa + 1 more2026-03-04⚡ eess

Bridging Kolmogorov Complexity and Deep Learning: Asymptotically Optimal Description Length Objectives for Transformers

Cet article propose un cadre théorique reliant la complexité de Kolmogorov aux Transformers en démontrant l'existence d'objectifs de longueur de description asymptotiquement optimes, tout en illustrant via une approche variationnelle à base de mélanges gaussiens que l'optimisation de ces objectifs pour améliorer la généralisation reste un défi majeur.

Peter Shaw, James Cohan, Jacob Eisenstein + 1 more2026-03-04💬 cs.CL

Benefits and Pitfalls of Reinforcement Learning for Language Model Planning: A Theoretical Perspective

Cette étude théorique démontre que, bien que l'apprentissage par renforcement améliore la planification des modèles de langage en évitant les solutions erronées du fine-tuning supervisé grâce à l'exploration, les méthodes de gradient de politique souffrent d'un effondrement de la diversité, contrairement à l'apprentissage Q qui préserve cette diversité mais nécessite une conception rigoureuse des récompenses pour éviter les biais.

Siwei Wang, Yifei Shen, Haoran Sun + 5 more2026-03-04📊 stat

Bridging the Gap Between Promise and Performance for Microscaling FP4 Quantization

Cet article présente MR-GPTQ, une méthode de quantisation post-entraînement spécialisée pour les formats FP4 micro-échelles (MXFP4 et NVFP4) qui, en combinant des transformations de Hadamard par blocs et des noyaux GPU optimisés, comble l'écart entre les promesses théoriques et les performances réelles pour offrir des gains de vitesse significatifs tout en maintenant une précision compétitive.

Vage Egiazarian, Roberto L. Castro, Denis Kuznedelev + 8 more2026-03-04🤖 cs.LG

Entering the Era of Discrete Diffusion Models: A Benchmark for Schrödinger Bridges and Entropic Optimal Transport

Cet article présente le premier benchmark pour l'évaluation rigoureuse des ponts de Schrödinger sur des espaces discrets, en proposant des solutions analytiques de référence et en introduisant de nouveaux algorithmes comme DLightSB pour permettre une comparaison fiable des méthodes de transport optimal entropique.

Xavier Aramayo Carrasco, Grigoriy Ksenofontov, Aleksei Leonov + 2 more2026-03-04🤖 cs.LG

AdaBet: Gradient-free Layer Selection for Efficient Training of Deep Neural Networks

Le papier présente AdaBet, une méthode sans gradient qui sélectionne automatiquement les couches les plus importantes pour l'adaptation efficace de réseaux de neurones pré-entraînés sur des appareils contraints en analysant les caractéristiques topologiques de leurs activations, permettant ainsi d'obtenir une meilleure précision tout en réduisant considérablement la consommation mémoire sans nécessiter d'étiquettes ni de rétropropagation.

Irene Tenison, Soumyajit Chatterjee, Fahim Kawsar + 1 more2026-03-04🤖 cs.LG