From Solver to Tutor: Evaluating the Pedagogical Intelligence of LLMs with KMP-Bench

Ce papier présente KMP-Bench, une nouvelle évaluation complète pour les modèles de langage en mathématiques (K-8) qui révèle un décalage entre leurs capacités de résolution et leurs compétences pédagogiques, tout en démontrant l'efficacité d'un jeu de données d'entraînement enrichi, KMP-Pile, pour améliorer leurs performances en tant que tuteurs.

Weikang Shi, Houxing Ren, Junting Pan + 8 more2026-03-04💬 cs.CL

From Heuristic Selection to Automated Algorithm Design: LLMs Benefit from Strong Priors

En démontrant que l'intégration d'exemples d'algorithmes de haute qualité issus de benchmarks améliore significativement les performances des modèles de langage pour la conception automatisée d'algorithmes, cette étude propose une approche fondée sur des priors solides qui surpasse les méthodes existantes sur des problèmes d'optimisation en boîte noire.

Qi Huang, Furong Ye, Ananta Shahane + 2 more2026-03-04🤖 cs.LG

Lattice-based Deep Neural Networks: Regularity and Tailored Regularization

Cet article de synthèse examine l'application des règles de réseau aux réseaux de neurones profonds, démontrant que l'utilisation de points d'entraînement adaptés et d'une régularisation ciblée permet d'obtenir des bornes d'erreur de généralisation indépendantes de la dimension et des performances numériques supérieures à la régularisation 2\ell_2 standard.

Alexander Keller, Frances Y. Kuo, Dirk Nuyens + 1 more2026-03-04🤖 cs.LG

ChemFlow:A Hierarchical Neural Network for Multiscale Representation Learning in Chemical Mixtures

Le papier présente ChemFlow, un cadre d'apprentissage hiérarchique innovant qui intègre des caractéristiques atomiques, de groupes fonctionnels et moléculaires pour prédire avec une précision supérieure les propriétés physicochimiques des mélanges chimiques complexes en tenant compte de leur composition et de leurs concentrations.

Jinming Fan, Chao Qian, Wilhelm T. S. Huck + 2 more2026-03-04🤖 cs.LG

Eliciting Numerical Predictive Distributions of LLMs Without Autoregression

Cette étude démontre qu'il est possible de récupérer les propriétés distributionnelles des prédictions numériques des grands modèles de langage, y compris l'incertitude, directement à partir de leurs représentations internes via des sondes d'apprentissage, évitant ainsi le coût computationnel élevé des méthodes d'échantillonnage autoregressif.

Julianna Piskorz, Katarzyna Kobalczyk, Mihaela van der Schaar2026-03-04🤖 cs.AI

Bias and Fairness in Self-Supervised Acoustic Representations for Cognitive Impairment Detection

Cette étude révèle que, bien que les représentations acoustiques contextuelles de Wav2Vec 2.0 surpassent les méthodes traditionnelles pour la détection des troubles cognitifs, elles présentent des biais significatifs défavorisant les femmes et les participants plus jeunes, soulignant ainsi la nécessité d'évaluations équitables dans les applications cliniques de la parole.

Kashaf Gulzar, Korbinian Riedhammer, Elmar Nöth + 2 more2026-03-04⚡ eess

Beyond One-Size-Fits-All: Adaptive Subgraph Denoising for Zero-Shot Graph Learning with Large Language Models

Le papier présente GraphSSR, un cadre innovant qui améliore l'apprentissage de graphes en zéro-shot avec des modèles de langage en remplaçant les stratégies d'extraction de sous-graphes génériques par une approche adaptative de débruitage via un processus « Échantillonner-Sélectionner-Raisonner » optimisé par l'ajustement fin et l'apprentissage par renforcement.

Fengzhi Li, Liang Zhang, Yuan Zuo + 5 more2026-03-04🤖 cs.AI

Enhancing Physics-Informed Neural Networks with Domain-aware Fourier Features: Towards Improved Performance and Interpretable Results

Cet article propose une approche novatrice améliorant les réseaux de neurones informés par la physique (PINN) grâce à l'utilisation de caractéristiques de Fourier spécifiques au domaine (DaFF) pour un encodage positionnel optimisé et d'un cadre d'explicabilité basé sur LRP, permettant d'obtenir une précision supérieure, une convergence plus rapide et une interprétabilité physiquement cohérente par rapport aux méthodes existantes.

Alberto Miño Calero, Luis Salamanca, Konstantinos E. Tatsis2026-03-04🤖 cs.AI

Sparse autoencoders reveal organized biological knowledge but minimal regulatory logic in single-cell foundation models: a comparative atlas of Geneformer and scGPT

Cette étude démontre que les modèles de fondation du single-cell Geneformer et scGPT intègrent une connaissance biologique organisée et hiérarchique révélée par des autoencodeurs clairsemés, mais qu'ils encodent une logique de régulation causale minimale face aux données de perturbation génomique.

Ihor Kendiukhov2026-03-04🧬 q-bio