Enabling stratified sampling in high dimensions via nonlinear dimensionality reduction

Cet article propose une méthode utilisant les variétés actives neuronales pour réduire la dimensionnalité d'un modèle coûteux et permettre un échantillonnage stratifié efficace en haute dimension, en alignant les partitions de l'espace d'entrée sur les ensembles de niveau de la réponse du modèle afin de réduire la variance des estimateurs.

Gianluca Geraci, Daniele E. Schiavazzi, Andrea Zanoni2026-03-06🔢 math

Dropping Just a Handful of Preferences Can Change Top Large Language Model Rankings

Cette étude propose une méthode rapide pour évaluer la sensibilité des classements de grands modèles de langage aux suppressions minimales de données de préférence, révélant que les classements du Chatbot Arena sont extrêmement fragiles au point qu'un retrait infime (0,003 %) peut inverser le modèle en tête, contrairement à ceux du MT-bench qui sont plus robustes grâce à une annotation experte.

Jenny Y. Huang, Yunyi Shen, Dennis Wei + 1 more2026-03-06💻 cs

Non-Asymptotic Analysis of Efficiency in Conformalized Regression

Cet article établit des bornes non asymptotiques sur l'efficacité de la régression conformalisée quantile et médiane entraînée par SGD, en caractérisant la dépendance conjointe de la longueur des ensembles de prédiction par rapport à la taille des jeux d'entraînement et de calibration ainsi qu'au niveau de non-couverture, et en identifiant des transitions de phase dans les taux de convergence.

Yunzhen Yao, Lie He, Michael Gastpar2026-03-06💻 cs

Latent-IMH: Efficient Bayesian Inference for Inverse Problems with Approximate Operators

L'article présente Latent-IMH, une méthode d'échantillonnage bayésien efficace pour les problèmes inverses linéaires avec des opérateurs coûteux, qui génère des variables latentes via une approximation rapide avant de les affiner avec l'opérateur exact, surpassant ainsi des méthodes de l'état de l'art comme NUTS en termes d'efficacité computationnelle.

Youguang Chen, George Biros2026-03-06🔢 math

Regularized Online RLHF with Generalized Bilinear Preferences

Cet article propose une méthode d'apprentissage par renforcement à partir de préférences humaines en ligne régularisée, fondée sur un modèle de préférences bilinéaires généralisées, qui établit pour la première fois des garanties d'efficacité statistique en haute dimension avec des bornes de regret indépendantes de la dimension ou de la force de régularisation.

Junghyun Lee, Minju Hong, Kwang-Sung Jun + 2 more2026-03-06💻 cs

Machine Learning for Complex Systems Dynamics: Detecting Bifurcations in Dynamical Systems with Deep Neural Networks

Cette étude propose une nouvelle approche basée sur les réseaux de neurones profonds, nommée EINNs, qui inverse le processus traditionnel en utilisant les états d'équilibre pour inférer les paramètres du système, permettant ainsi de détecter efficacement les seuils critiques et les bifurcations dans les systèmes dynamiques complexes.

Swadesh Pal, Roderick Melnik2026-03-06🔢 math

Dictionary Based Pattern Entropy for Causal Direction Discovery

Cet article propose un cadre novateur de « Dictionary Based Pattern Entropy » (DPE) qui, en combinant la théorie de l'information algorithmique et de Shannon, infère avec succès la direction de causalité et les sous-motifs déterminants dans les séquences symboliques temporelles en minimisant l'incertitude liée aux motifs, surpassant ainsi les méthodes existantes sur divers systèmes synthétiques et réels.

Harikrishnan N B, Shubham Bhilare, Aditi Kathpalia + 1 more2026-03-06🔢 math

Bayesian Modeling of Collatz Stopping Times: A Probabilistic Machine Learning Perspective

Cet article propose une modélisation bayésienne des temps d'arrêt de la conjecture de Collatz en comparant une régression hiérarchique binomiale négative et une approximation générative basée sur la décomposition en blocs impairs, démontrant que la structure modulaire de bas ordre (notamment nmod8n \bmod 8) est un facteur clé de l'hétérogénéité observée.

Nicolò Bonacorsi, Matteo Bordoni2026-03-06🔢 math