Operator Learning Using Weak Supervision from Walk-on-Spheres

Cet article présente WoS-NO, une méthode d'apprentissage d'opérateurs neuronaux qui utilise la méthode Walk-on-Spheres pour générer des supervisions faibles et peu coûteuses, permettant ainsi d'entraîner des solveurs d'EDP sans données précalculées ni calculs de dérivées d'ordre supérieur, tout en offrant une meilleure précision, une vitesse d'entraînement accrue et une réduction de la consommation mémoire par rapport aux approches traditionnelles.

Hrishikesh Viswanath, Hong Chul Nam, Xi Deng + 3 more2026-03-04🤖 cs.LG

RxnNano:Training Compact LLMs for Chemical Reaction and Retrosynthesis Prediction via Hierarchical Curriculum Learning

Le papier présente RxnNano, un modèle de langage compact de 0,5 milliard de paramètres qui surpasse les modèles bien plus grands en prédisant les réactions chimiques et la rétrosynthèse grâce à un apprentissage par curriculum hiérarchique, une cohérence chimique latente et l'invariance par permutation des cartes d'atomes.

Ran Li, Shimin Di, Haowei LI + 4 more2026-03-04🤖 cs.AI

MedFeat: Model-Aware and Explainability-Driven Feature Engineering with LLMs for Clinical Tabular Prediction

Le papier présente MedFeat, un cadre d'ingénierie de fonctionnalités alimenté par les LLMs qui intègre la connaissance médicale, la conscience du modèle et l'explicabilité SHAP pour améliorer de manière stable les prédictions cliniques tabulaires et découvrir des caractéristiques robustes et cliniquement pertinentes.

Zizheng Zhang, Yiming Li, Justin Xu + 6 more2026-03-04🤖 cs.AI

MedCalc-Bench Doesn't Measure What You Think: A Benchmark Audit and the Case for Open-Book Evaluation

Cet article remet en cause la pertinence du benchmark MedCalc-Bench en révélant des erreurs dans ses implémentations, en démontrant que l'accès aux spécifications des calculateurs (« open-book ») permet d'atteindre des performances supérieures à celles des systèmes à apprentissage par renforcement, et en concluant que ce benchmark évalue principalement la mémorisation de formules et la précision arithmétique plutôt que le raisonnement clinique.

Artus Krohn-Grimberghe2026-03-04🤖 cs.AI

Characterizing and Predicting Wildfire Evacuation Behavior: A Dual-Stage ML Approach

En intégrant des méthodes d'apprentissage automatique non supervisé et supervisé à une vaste enquête menée auprès de résidents de la Californie, du Colorado et de l'Oregon, cette étude identifie des typologies comportementales distinctes liées à l'évacuation des incendies de forêt et démontre que, si le mode de transport peut être prédit avec fiabilité à partir des caractéristiques des ménages, le moment de l'évacuation reste difficile à classifier en raison de sa dépendance aux conditions dynamiques du feu.

Sazzad Bin Bashar Polock, Anandi Dutta, Subasish Das2026-03-04🤖 cs.AI

Scaling Reward Modeling without Human Supervision

Cette étude démontre la faisabilité et l'efficacité d'une approche de modélisation des récompenses entièrement non supervisée, utilisant des préférences apprises à partir de corpus web massifs pour améliorer les performances en mathématiques et la sécurité des modèles, surpassant ou égalant les méthodes supervisées traditionnelles sans nécessiter d'annotations humaines coûteuses.

Jingxuan Fan, Yueying Li, Zhenting Qi + 4 more2026-03-04🤖 cs.LG

Efficient Sparse Selective-Update RNNs for Long-Range Sequence Modeling

Ce papier présente les suRNNs, une architecture de réseaux de neurones récurrents non linéaires qui utilise des commutateurs binaires au niveau des neurones pour mettre à jour sélectivement la mémoire uniquement lors d'événements informatifs, permettant ainsi de modéliser efficacement des séquences à long terme avec une performance comparable aux Transformers tout en conservant une efficacité computationnelle supérieure.

Bojian Yin, Shurong Wang, Haoyu Tan + 3 more2026-03-04🤖 cs.LG

Neural Paging: Learning Context Management Policies for Turing-Complete Agents

Cet article présente Neural Paging, une architecture hiérarchique qui résout le goulot d'étranglement de la fenêtre de contexte des agents LLM en découplant le raisonnement symbolique de la gestion des ressources via un contrôleur de pages apprenant à approximer l'optimalité de Belady, réduisant ainsi la complexité asymptotique du raisonnement à long terme de O(N2)O(N^2) à O(NK2)O(N \cdot K^2).

Liang Chen, Qi Liu2026-03-04🤖 cs.AI