Evo: Autoregressive-Diffusion Large Language Models with Evolving Balance

Le papier présente Evo, un modèle de langage d'ordre 8B qui unifie les paradigmes autoregressif et diffusionnel au sein d'un cadre évolutif latent, permettant d'adapter dynamiquement le processus de génération à l'incertitude pour atteindre des performances de pointe en raisonnement et en génération de code tout en conservant une vitesse d'inférence élevée.

Junde Wu, Minhao Hu, Jiayuan Zhu, Yuyuan Liu, Tianyi Zhang, Kang Li, Jingkun Chen, Jiazhen Pan, Min Xu, Yueming Jin2026-03-10🤖 cs.LG

Distilling and Adapting: A Topology-Aware Framework for Zero-Shot Interaction Prediction in Multiplex Biological Networks

Cet article propose un cadre novateur pour la prédiction d'interactions à zéro tir dans les réseaux biologiques multiplex, en combinant l'apprentissage de représentations contextuelles, la distillation de connaissances et une tokenisation de graphe sensible à la topologie pour surmonter les limites des méthodes existantes et améliorer la généralisation aux entités non vues.

Alana Deng, Sugitha Janarthanan, Yan Sun, Zihao Jing, Pingzhao Hu2026-03-10🤖 cs.LG

Not all tokens are needed(NAT): token efficient reinforcement learning

Le papier présente NAT, un cadre d'apprentissage par renforcement qui optimise l'efficacité computationnelle en mettant à jour les politiques uniquement sur un sous-ensemble de tokens sélectionnés via une estimation de gradient non biaisée, permettant ainsi de réduire significativement les coûts de calcul et de mémoire tout en préservant les performances sur des tâches de raisonnement complexe.

Hejian Sang, Yuanda Xu, Zhengze Zhou, Ran He, Zhipeng Wang2026-03-10🤖 cs.LG

Reward Under Attack: Analyzing the Robustness and Hackability of Process Reward Models

Cette étude révèle que les modèles de récompense de processus (PRM) actuels sont systématiquement vulnérables aux attaques adverses en raison d'une dissociation entre la fluidité et la logique, les transformant en détecteurs de style plutôt qu'en vérificateurs de raisonnement, et propose un cadre de diagnostic et des outils pour évaluer leur robustesse avant déploiement.

Rishabh Tiwari, Aditya Tomar, Udbhav Bamba, Monishwaran Maheswaran, Heng Yang, Michael W. Mahoney, Kurt Keutzer, Amir Gholami2026-03-10🤖 cs.LG

Exploration Space Theory: Formal Foundations for Prerequisite-Aware Location-Based Recommendation

Cet article présente la Théorie de l'Espace d'Exploration (EST), un cadre formel fondé sur la théorie des espaces de connaissances qui modélise les dépendances prérequis entre lieux d'intérêt via des treillis distributifs, permettant ainsi de concevoir un système de recommandation géolocalisée garantissant mathématiquement la validité structurelle de chaque étape d'exploration.

Madjid Sadallah2026-03-10🤖 cs.LG

SmartBench: Evaluating LLMs in Smart Homes with Anomalous Device States and Behavioral Contexts

Ce papier présente SmartBench, le premier jeu de données conçu pour évaluer la capacité des grands modèles de langage à détecter et gérer des états anormaux dans les maisons intelligentes, révélant que les modèles actuels, y compris les plus avancés, obtiennent des performances insuffisantes sur cette tâche critique.

Qingsong Zou, Zhi Yan, Zhiyao Xu, Kuofeng Gao, Jingyu Xiao, Yong Jiang2026-03-10🤖 cs.LG

Roots Beneath the Cut: Uncovering the Risk of Concept Revival in Pruning-Based Unlearning for Diffusion Models

Cet article révèle que l'effacement par élagage des modèles de diffusion est vulnérable à une attaque de « résurrection de concept » totalement sans données ni réentraînement, car les positions des poids élagués peuvent servir de canal latéral pour restaurer les concepts supprimés, incitant ainsi à développer des mécanismes d'élagage plus sûrs qui masquent ces localisations.

Ci Zhang, Zhaojun Ding, Chence Yang, Jun Liu, Xiaoming Zhai, Shaoyi Huang, Beiwen Li, Xiaolong Ma, Jin Lu, Geng Yuan2026-03-10🤖 cs.LG