A medical coding language model trained on clinical narratives from a population-wide cohort of 1.8 million patients

Entraîné sur les dossiers de 1,8 million de patients danois, un modèle de langage a démontré une capacité à automatiser le codage médical et a révélé une sous-déclaration systématique de diagnostics secondaires, soulignant l'importance de ces outils pour améliorer la surveillance épidémiologique et la prise en charge des comorbidités.

Joakim Edin, Sedrah Butt Balaganeshan, Annike Kjølby Kristensen + 3 more2026-03-04🤖 cs.LG

CoPeP: Benchmarking Continual Pretraining for Protein Language Models

Le papier présente CoPeP, un nouveau benchmark évaluant l'apprentissage continu sur les modèles de langage protéiques en utilisant une décennie de données UniProt, et démontre que l'exploitation des métadonnées temporelles et de méthodes d'apprentissage continu améliore significativement les performances par rapport à l'entraînement classique.

Darshan Patil, Pranshu Malviya, Mathieu Reymond + 2 more2026-03-04🤖 cs.LG

Grokking as a Phase Transition between Competing Basins: a Singular Learning Theory Approach

En appliquant la Théorie de l'Apprentissage Singulier (SLT), cette étude interprète le phénomène de « grokking » comme une transition de phase entre des bassins de solutions compétitifs dans les réseaux quadratiques, démontrant que le coefficient d'apprentissage local sert d'indicateur fiable pour suivre la dynamique de généralisation et prédire ces transitions.

Ben Cullen, Sergio Estan-Ruiz, Riya Danait + 1 more2026-03-04📊 stat

Operator Learning Using Weak Supervision from Walk-on-Spheres

Cet article présente WoS-NO, une méthode d'apprentissage d'opérateurs neuronaux qui utilise la méthode Walk-on-Spheres pour générer des supervisions faibles et peu coûteuses, permettant ainsi d'entraîner des solveurs d'EDP sans données précalculées ni calculs de dérivées d'ordre supérieur, tout en offrant une meilleure précision, une vitesse d'entraînement accrue et une réduction de la consommation mémoire par rapport aux approches traditionnelles.

Hrishikesh Viswanath, Hong Chul Nam, Xi Deng + 3 more2026-03-04🤖 cs.LG

RxnNano:Training Compact LLMs for Chemical Reaction and Retrosynthesis Prediction via Hierarchical Curriculum Learning

Le papier présente RxnNano, un modèle de langage compact de 0,5 milliard de paramètres qui surpasse les modèles bien plus grands en prédisant les réactions chimiques et la rétrosynthèse grâce à un apprentissage par curriculum hiérarchique, une cohérence chimique latente et l'invariance par permutation des cartes d'atomes.

Ran Li, Shimin Di, Haowei LI + 4 more2026-03-04🤖 cs.AI

MedFeat: Model-Aware and Explainability-Driven Feature Engineering with LLMs for Clinical Tabular Prediction

Le papier présente MedFeat, un cadre d'ingénierie de fonctionnalités alimenté par les LLMs qui intègre la connaissance médicale, la conscience du modèle et l'explicabilité SHAP pour améliorer de manière stable les prédictions cliniques tabulaires et découvrir des caractéristiques robustes et cliniquement pertinentes.

Zizheng Zhang, Yiming Li, Justin Xu + 6 more2026-03-04🤖 cs.AI