Eliciting Numerical Predictive Distributions of LLMs Without Autoregression

Cette étude démontre qu'il est possible de récupérer les propriétés distributionnelles des prédictions numériques des grands modèles de langage, y compris l'incertitude, directement à partir de leurs représentations internes via des sondes d'apprentissage, évitant ainsi le coût computationnel élevé des méthodes d'échantillonnage autoregressif.

Julianna Piskorz, Katarzyna Kobalczyk, Mihaela van der Schaar2026-03-04🤖 cs.AI

Bias and Fairness in Self-Supervised Acoustic Representations for Cognitive Impairment Detection

Cette étude révèle que, bien que les représentations acoustiques contextuelles de Wav2Vec 2.0 surpassent les méthodes traditionnelles pour la détection des troubles cognitifs, elles présentent des biais significatifs défavorisant les femmes et les participants plus jeunes, soulignant ainsi la nécessité d'évaluations équitables dans les applications cliniques de la parole.

Kashaf Gulzar, Korbinian Riedhammer, Elmar Nöth + 2 more2026-03-04⚡ eess

Beyond One-Size-Fits-All: Adaptive Subgraph Denoising for Zero-Shot Graph Learning with Large Language Models

Le papier présente GraphSSR, un cadre innovant qui améliore l'apprentissage de graphes en zéro-shot avec des modèles de langage en remplaçant les stratégies d'extraction de sous-graphes génériques par une approche adaptative de débruitage via un processus « Échantillonner-Sélectionner-Raisonner » optimisé par l'ajustement fin et l'apprentissage par renforcement.

Fengzhi Li, Liang Zhang, Yuan Zuo + 5 more2026-03-04🤖 cs.AI

Enhancing Physics-Informed Neural Networks with Domain-aware Fourier Features: Towards Improved Performance and Interpretable Results

Cet article propose une approche novatrice améliorant les réseaux de neurones informés par la physique (PINN) grâce à l'utilisation de caractéristiques de Fourier spécifiques au domaine (DaFF) pour un encodage positionnel optimisé et d'un cadre d'explicabilité basé sur LRP, permettant d'obtenir une précision supérieure, une convergence plus rapide et une interprétabilité physiquement cohérente par rapport aux méthodes existantes.

Alberto Miño Calero, Luis Salamanca, Konstantinos E. Tatsis2026-03-04🤖 cs.AI

Sparse autoencoders reveal organized biological knowledge but minimal regulatory logic in single-cell foundation models: a comparative atlas of Geneformer and scGPT

Cette étude démontre que les modèles de fondation du single-cell Geneformer et scGPT intègrent une connaissance biologique organisée et hiérarchique révélée par des autoencodeurs clairsemés, mais qu'ils encodent une logique de régulation causale minimale face aux données de perturbation génomique.

Ihor Kendiukhov2026-03-04🧬 q-bio

LAGO: A Local-Global Optimization Framework Combining Trust Region Methods and Bayesian Optimization

Le papier présente LAGO, un cadre d'optimisation combinant l'optimisation bayésienne améliorée par le gradient et des méthodes de région de confiance locales via un mécanisme de compétition adaptatif, permettant d'explorer efficacement l'espace de conception tout en assurant une convergence rapide dans les régions prometteuses.

Eliott Van Dieren, Tommaso Vanzan, Fabio Nobile2026-03-04🤖 cs.LG

Variance reduction in lattice QCD observables via normalizing flows

Cet article présente l'application des flux normalisants pour réduire considérablement la variance des observables en QCD sur réseau, notamment pour les fonctions de corrélation de glueballs et les éléments de matrice gluoniques, tout en démontrant que cette efficacité est indépendante du volume du réseau, permettant ainsi d'optimiser les coûts de calcul.

Ryan Abbott, Denis Boyda, Yang Fu + 5 more2026-03-04⚛️ hep-lat

Breaking the Prototype Bias Loop: Confidence-Aware Federated Contrastive Learning for Highly Imbalanced Clients

Cet article propose CAFedCL, un cadre d'apprentissage contrastif fédéré qui brise le biais des prototypes dans les environnements déséquilibrés grâce à une agrégation consciente de la confiance, à une augmentation générative et à une régularisation géométrique, garantissant ainsi une meilleure précision et équité.

Tian-Shuang Wu, Shen-Huan Lyu, Ning Chen + 4 more2026-03-04🤖 cs.LG

SEHFS: Structural Entropy-Guided High-Order Correlation Learning for Multi-View Multi-Label Feature Selection

Cet article propose SEHFS, une nouvelle méthode de sélection de caractéristiques pour l'apprentissage multi-vues multi-étiquettes qui utilise l'entropie structurelle pour capturer des corrélations d'ordre supérieur et un cadre hybride théorie de l'information-matrice pour éviter les optima locaux, surpassant ainsi les méthodes existantes sur plusieurs jeux de données.

Cheng Peng, Yonghao Li, Wanfu Gao + 2 more2026-03-04🤖 cs.LG

Step-Level Sparse Autoencoder for Reasoning Process Interpretation

Cet article propose un autoencodeur épars au niveau des étapes (SSAE) pour interpréter les processus de raisonnement des grands modèles de langage en décomposant les étapes de raisonnement en caractéristiques éparses, permettant ainsi de prédire des propriétés complexes comme la validité logique et d'éclairer les mécanismes d'auto-vérification de ces modèles.

Xuan Yang, Jiayu Liu, Yuhang Lai + 3 more2026-03-04🤖 cs.LG