EoRA: Fine-tuning-free Compensation for Compressed LLM with Eigenspace Low-Rank Approximation

Ce papier présente EoRA, une méthode sans fine-tuning qui restaure la précision des grands modèles de langage compressés en ajoutant des matrices de faible rang via une approximation de sous-espace propre, tout en offrant une flexibilité accrue et une accélération matérielle grâce à un noyau CUDA optimisé.

Shih-Yang Liu, Maksim Khadkevich, Nai Chit Fung, Charbel Sakr, Chao-Han Huck Yang, Chien-Yi Wang, Saurav Muralidharan, Hongxu Yin, Kwang-Ting Cheng, Jan Kautz, Yu-Chiang Frank Wang, Pavlo Molchanov, Min-Hung Chen2026-03-12💬 cs.CL

Boosting Cross-problem Generalization in Diffusion-Based Neural Combinatorial Solver via Inference Time Adaptation

Cet article présente DIFU-Ada, un cadre d'adaptation à l'inférence sans entraînement qui permet aux solveurs d'optimisation combinatoire basés sur la diffusion de généraliser de manière zéro-shot à travers différentes échelles et problèmes, comme le PCTSP et l'OP, en partant d'un modèle entraîné uniquement sur le problème du voyageur de commerce.

Haoyu Lei, Kaiwen Zhou, Yinchuan Li, Zhitang Chen, Farzan Farnia2026-03-12🤖 cs.LG

Talking like Piping and Instrumentation Diagrams (P&IDs)

Les auteurs proposent une méthodologie intégrant les diagrammes de tuyauterie et d'instrumentation (P&ID) modélisés sous forme de graphes de connaissances via le standard DEXPI aux grands modèles de langage (LLM) par l'intermédiaire de la génération augmentée par récupération graphique (graph-RAG), permettant ainsi d'interagir avec ces schémas en langage naturel tout en réduisant les hallucinations et en facilitant l'interprétation des données de processus.

Achmad Anggawirya Alimin, Dominik P. Goldstein, Lukas Schulze Balhorn + 1 more2026-03-12🤖 cs.AI

Offline Dynamic Inventory and Pricing Strategy: Addressing Censored and Dependent Demand

Cet article propose une nouvelle approche pilotée par les données pour optimiser les politiques de tarification et de gestion des stocks en environnement hors ligne, en surmontant les défis posés par la demande censurée et dépendante grâce à l'approximation par des processus de décision markoviens d'ordre élevé et à l'estimation de politiques optimales via des algorithmes inspirés de l'apprentissage par renforcement hors ligne et de l'analyse de survie.

Korel Gundem, Zhengling Qi2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

Le papier propose SwitchMT, une méthode novatrice utilisant des réseaux de neurones à impulsions avec une politique de commutation de tâches adaptative pour permettre un apprentissage multi-tâches évolutif et efficace aux agents autonomes, surmontant ainsi les interférences de tâches sans accroître la complexité du réseau.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement

Cet article de revue systématique établit le champ interdisciplinaire de la psychométrie des grands modèles de langage en synthétisant les méthodes d'évaluation, de validation et d'amélioration inspirées des sciences psychologiques pour aligner les systèmes d'IA sur les constructions humaines et favoriser le développement d'une intelligence artificielle centrée sur l'humain.

Haoran Ye, Jing Jin, Yuhang Xie, Xin Zhang, Guojie Song2026-03-12💬 cs.CL

Training with Pseudo-Code for Instruction Following

Cette étude propose une méthode d'entraînement qui améliore la capacité des grands modèles de langage à suivre des instructions complexes en les fine-tunant avec des données enrichies de pseudo-code, obtenant ainsi des gains significatifs sur des benchmarks de suivi d'instructions tout en préservant ou en améliorant leurs performances en raisonnement mathématique et de bon sens.

Prince Kumar, Rudra Murthy, Riyaz Bhat, Danish Contractor2026-03-12💬 cs.CL

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Ce sondage de données-driven examine l'évolution rapide des recherches sur les limites des grands modèles de langage (LLLMs) de 2022 à 2025, révélant une croissance exponentielle des publications axées sur le raisonnement, les hallucinations et la sécurité, tout en offrant une méthodologie validée et un jeu de données annotées.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Cet article propose un cadre d'abduction basé sur la cohérence qui intègre les prédictions de multiples modèles pré-entraînés via des règles logiques pour atténuer les erreurs de perception dans des environnements nouveaux, surpassant ainsi les modèles individuels et les méthodes d'ensemble classiques en termes de précision et de rappel.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Cette étude démontre que, pour la prévision des ventes au détail caractérisée par une demande intermittente et des données manquantes, les méthodes d'ensemble basées sur des arbres de décision comme XGBoost surpassent les architectures d'apprentissage profond, suggérant que l'adéquation aux spécificités du problème prime sur la sophistication architecturale.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Ce papier présente ReLIFT, une méthode d'entraînement qui alterne l'apprentissage par renforcement et le fine-tuning supervisé en ligne pour surmonter les limites du RL et permettre aux modèles de langage d'acquérir de nouvelles connaissances et capacités de raisonnement au-delà de leurs compétences initiales.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Locality-aware Parallel Decoding for Efficient Autoregressive Image Generation

Ce papier présente la Décodage Parallèle Conscient de la Localité (LPD), une méthode qui accélère considérablement la génération d'images autorégressive en combinant une modélisation flexible et un ordre de génération optimisé pour réduire le nombre d'étapes et la latence sans compromettre la qualité.

Zhuoyang Zhang, Luke J. Huang, Chengyue Wu, Shang Yang, Kelly Peng, Yao Lu, Song Han2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

Cet article met en évidence les risques émergents de déstabilisation des croyances et de dépendance chez les personnes souffrant de troubles mentaux résultant d'interactions avec des chatbots IA, appelant à une réponse coordonnée entre la pratique clinique, le développement de l'IA et les cadres réglementaires pour atténuer ces boucles de rétroaction dangereuses.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio