Reward Under Attack: Analyzing the Robustness and Hackability of Process Reward Models

Cette étude révèle que les modèles de récompense de processus (PRM) actuels sont systématiquement vulnérables aux attaques adverses en raison d'une dissociation entre la fluidité et la logique, les transformant en détecteurs de style plutôt qu'en vérificateurs de raisonnement, et propose un cadre de diagnostic et des outils pour évaluer leur robustesse avant déploiement.

Rishabh Tiwari, Aditya Tomar, Udbhav Bamba, Monishwaran Maheswaran, Heng Yang, Michael W. Mahoney, Kurt Keutzer, Amir Gholami2026-03-10🤖 cs.LG

Exploration Space Theory: Formal Foundations for Prerequisite-Aware Location-Based Recommendation

Cet article présente la Théorie de l'Espace d'Exploration (EST), un cadre formel fondé sur la théorie des espaces de connaissances qui modélise les dépendances prérequis entre lieux d'intérêt via des treillis distributifs, permettant ainsi de concevoir un système de recommandation géolocalisée garantissant mathématiquement la validité structurelle de chaque étape d'exploration.

Madjid Sadallah2026-03-10🤖 cs.LG

SmartBench: Evaluating LLMs in Smart Homes with Anomalous Device States and Behavioral Contexts

Ce papier présente SmartBench, le premier jeu de données conçu pour évaluer la capacité des grands modèles de langage à détecter et gérer des états anormaux dans les maisons intelligentes, révélant que les modèles actuels, y compris les plus avancés, obtiennent des performances insuffisantes sur cette tâche critique.

Qingsong Zou, Zhi Yan, Zhiyao Xu, Kuofeng Gao, Jingyu Xiao, Yong Jiang2026-03-10🤖 cs.LG

Roots Beneath the Cut: Uncovering the Risk of Concept Revival in Pruning-Based Unlearning for Diffusion Models

Cet article révèle que l'effacement par élagage des modèles de diffusion est vulnérable à une attaque de « résurrection de concept » totalement sans données ni réentraînement, car les positions des poids élagués peuvent servir de canal latéral pour restaurer les concepts supprimés, incitant ainsi à développer des mécanismes d'élagage plus sûrs qui masquent ces localisations.

Ci Zhang, Zhaojun Ding, Chence Yang, Jun Liu, Xiaoming Zhai, Shaoyi Huang, Beiwen Li, Xiaolong Ma, Jin Lu, Geng Yuan2026-03-10🤖 cs.LG

Quantum Deep Learning: A Comprehensive Review

Cette revue complète définit l'apprentissage profond quantique (QDL) à travers une taxonomie de quatre paradigmes, évalue de manière critique les avantages quantiques et les compromis pratiques sur diverses plateformes matérielles, et propose une feuille de route pour son passage des démonstrations actuelles à des implémentations évolutives et tolérantes aux pannes.

Yanjun Ji, Zhao-Yun Chen, Marco Roth, David A. Kreplin, Christian Schiffer, Martin King, Oliver Anton, M. Sahnawaz Alam, Markus Krutzik, Dennis Willsch, Ludwig Mathey, Frank K. Wilhelm, Guo-Ping Guo2026-03-10⚛️ quant-ph

Trust Aware Federated Learning for Secure Bone Healing Stage Interpretation in e-Health

Cet article propose un cadre d'apprentissage fédéré sensible à la confiance intégrant un mécanisme de filtrage adaptatif pour interpréter les stades de guérison osseuse à partir de données spectrales, permettant ainsi de sécuriser les environnements de détection médicale distribuée en atténuant l'impact des participants malveillants tout en préservant la performance du modèle.

Paul Shepherd, Tasos Dagiuklas, Bugra Alkan, Joaquim Bastos, Jonathan Rodriguez2026-03-10🤖 cs.LG

HURRI-GAN: A Novel Approach for Hurricane Bias-Correction Beyond Gauge Stations using Generative Adversarial Networks

Ce papier présente HURRI-GAN, une approche novatrice utilisant des réseaux antagonistes génératifs (GAN) pour corriger les biais des modèles physiques de simulation d'ouragans au-delà des stations de jaugeage, permettant ainsi d'accélérer les prévisions sans sacrifier la précision.

Noujoud Nadera, Hadi Majed, Stefanos Giaremis, Rola El Osta, Clint Dawson, Carola Kaiser, Hartmut Kaiser2026-03-10🤖 cs.LG

Geodesic Gradient Descent: A Generic and Learning-rate-free Optimizer on Objective Function-induced Manifolds

Cet article présente la descente de gradient géodésique (GGD), un algorithme d'optimisation générique et sans taux d'apprentissage qui approxime localement la géométrie de la fonction objectif par une sphère pour maintenir les trajectoires de mise à jour sur l'hypersurface, démontrant ainsi des performances supérieures à l'algorithme Adam sur divers jeux de données.

Liwei Hu, Guangyao Li, Wenyong Wang, Xiaoming Zhang, Yu Xiang2026-03-10🤖 cs.LG