Rich Insights from Cheap Signals: Efficient Evaluations via Tensor Factorization

Cet article propose un modèle statistique novateur basé sur la factorisation tensorielle qui fusionne des données d'évaluation automatisées peu coûteuses avec un petit ensemble de labels humains pour permettre des évaluations fines et précises des modèles génératifs à l'échelle du prompt, tout en réduisant considérablement le besoin d'annotations humaines.

Felipe Maia Polo, Aida Nematzadeh, Virginia Aglietti + 2 more2026-03-05🤖 cs.AI

Surprisal-Rényi Free Energy

Cet article introduit l'Énergie Libre de Surprisal-Rényi (SRFE), une fonctionnelle log-momentielle qui généralise les divergences de Kullback-Leibler en révélant un compromis explicite entre moyenne et variance, tout en offrant une caractérisation variationnelle de type Gibbs et une interprétation précise en termes de Longueur Minimale de Description pour contrôler les déviations extrêmes.

Shion Matsumoto, Raul Castillo, Benjamin Prada + 1 more2026-03-05🤖 cs.LG

Scalable Contrastive Causal Discovery under Unknown Soft Interventions

Cet article propose un modèle d'apprentissage causal évolutif et contrastif capable de découvrir des structures causales sous forme de PDAG maximales à partir de régimes observationnels et interventionnels appariés avec des interventions douces inconnues, garantissant une récupération théorique et une généralisation supérieures aux méthodes existantes.

Mingxuan Zhang, Khushi Desai, Sopho Kevlishvili + 1 more2026-03-05🤖 cs.LG

Empirical Evaluation of No Free Lunch Violations in Permutation-Based Optimization

Cette étude démontre que la reformulation algébrique des objectifs et la conception des benchmarks peuvent générer des écarts locaux structurés par rapport à l'intuition du théorème « No Free Lunch », entraînant des réorganisations stables des performances des algorithmes et soulignant la nécessité d'un choix d'algorithme conscient de la classe de problèmes et de la représentation de l'objectif.

Grzegorz Sroka2026-03-05🔢 math

Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data

Cet article établit des bornes d'erreur d'échantillonnage fini pour les modèles de diffusion basés sur l'appariement de scores, démontrant que leur taux de convergence dépend de la dimension intrinsèque des données plutôt que de la dimension ambiante, permettant ainsi de surmonter la malédiction de la dimensionnalité sans hypothèses restrictives de support compact ou de régularité.

Saptarshi Chakraborty, Quentin Berthet, Peter L. Bartlett2026-03-05🤖 cs.AI

Inverse Contextual Bandits without Rewards: Learning from a Non-Stationary Learner via Suffix Imitation

Cet article propose un cadre d'imitation par suffixe en deux phases pour résoudre le problème des bandits contextuels inverses sans récompenses, permettant à un observateur passif de retrouver la politique optimale avec une efficacité asymptotique équivalente à celle d'un apprenant disposant des récompenses, malgré la non-stationnarité des données d'actions.

Yuqi Kong, Xiao Zhang, Weiran Shen2026-03-05🤖 cs.LG