Offline Dynamic Inventory and Pricing Strategy: Addressing Censored and Dependent Demand

Cet article propose une nouvelle approche pilotée par les données pour optimiser les politiques de tarification et de gestion des stocks en environnement hors ligne, en surmontant les défis posés par la demande censurée et dépendante grâce à l'approximation par des processus de décision markoviens d'ordre élevé et à l'estimation de politiques optimales via des algorithmes inspirés de l'apprentissage par renforcement hors ligne et de l'analyse de survie.

Korel Gundem, Zhengling Qi2026-03-12📊 stat

Scalable Multi-Task Learning through Spiking Neural Networks with Adaptive Task-Switching Policy for Intelligent Autonomous Agents

Le papier propose SwitchMT, une méthode novatrice utilisant des réseaux de neurones à impulsions avec une politique de commutation de tâches adaptative pour permettre un apprentissage multi-tâches évolutif et efficace aux agents autonomes, surmontant ainsi les interférences de tâches sans accroître la complexité du réseau.

Rachmad Vidya Wicaksana Putra, Avaneesh Devkota, Muhammad Shafique2026-03-12🤖 cs.AI

Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement

Cet article de revue systématique établit le champ interdisciplinaire de la psychométrie des grands modèles de langage en synthétisant les méthodes d'évaluation, de validation et d'amélioration inspirées des sciences psychologiques pour aligner les systèmes d'IA sur les constructions humaines et favoriser le développement d'une intelligence artificielle centrée sur l'humain.

Haoran Ye, Jing Jin, Yuhang Xie, Xin Zhang, Guojie Song2026-03-12💬 cs.CL

Training with Pseudo-Code for Instruction Following

Cette étude propose une méthode d'entraînement qui améliore la capacité des grands modèles de langage à suivre des instructions complexes en les fine-tunant avec des données enrichies de pseudo-code, obtenant ainsi des gains significatifs sur des benchmarks de suivi d'instructions tout en préservant ou en améliorant leurs performances en raisonnement mathématique et de bon sens.

Prince Kumar, Rudra Murthy, Riyaz Bhat, Danish Contractor2026-03-12💬 cs.CL

LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Ce sondage de données-driven examine l'évolution rapide des recherches sur les limites des grands modèles de langage (LLLMs) de 2022 à 2025, révélant une croissance exponentielle des publications axées sur le raisonnement, les hallucinations et la sécurité, tout en offrant une méthodologie validée et un jeu de données annotées.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger2026-03-12💬 cs.CL

Consistency-based Abductive Reasoning over Perceptual Errors of Multiple Pre-trained Models in Novel Environments

Cet article propose un cadre d'abduction basé sur la cohérence qui intègre les prédictions de multiples modèles pré-entraînés via des règles logiques pour atténuer les erreurs de perception dans des environnements nouveaux, surpassant ainsi les modèles individuels et les méthodes d'ensemble classiques en termes de précision et de rappel.

Mario Leiva, Noel Ngu, Joshua Shay Kricheli, Aditya Taparia, Ransalu Senanayake, Paulo Shakarian, Nathaniel Bastian, John Corcoran, Gerardo Simari2026-03-12🤖 cs.AI

Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Cette étude démontre que, pour la prévision des ventes au détail caractérisée par une demande intermittente et des données manquantes, les méthodes d'ensemble basées sur des arbres de décision comme XGBoost surpassent les architectures d'apprentissage profond, suggérant que l'adéquation aux spécificités du problème prime sur la sophistication architecturale.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Ce papier présente ReLIFT, une méthode d'entraînement qui alterne l'apprentissage par renforcement et le fine-tuning supervisé en ligne pour surmonter les limites du RL et permettre aux modèles de langage d'acquérir de nouvelles connaissances et capacités de raisonnement au-delà de leurs compétences initiales.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Locality-aware Parallel Decoding for Efficient Autoregressive Image Generation

Ce papier présente la Décodage Parallèle Conscient de la Localité (LPD), une méthode qui accélère considérablement la génération d'images autorégressive en combinant une modélisation flexible et un ordre de génération optimisé pour réduire le nombre d'étapes et la latence sans compromettre la qualité.

Zhuoyang Zhang, Luke J. Huang, Chengyue Wu, Shang Yang, Kelly Peng, Yao Lu, Song Han2026-03-12🤖 cs.AI

Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness

Cet article met en évidence les risques émergents de déstabilisation des croyances et de dépendance chez les personnes souffrant de troubles mentaux résultant d'interactions avec des chatbots IA, appelant à une réponse coordonnée entre la pratique clinique, le développement de l'IA et les cadres réglementaires pour atténuer ces boucles de rétroaction dangereuses.

Sebastian Dohnány, Zeb Kurth-Nelson, Eleanor Spens, Lennart Luettgau, Alastair Reid, Iason Gabriel, Christopher Summerfield, Murray Shanahan, Matthew M Nour2026-03-12🧬 q-bio

Shadow in the Cache: Unveiling and Mitigating Privacy Risks of KV-cache in LLM Inference

Cet article révèle que le cache KV, essentiel à l'inférence des grands modèles de langage, expose des risques de confidentialité critiques permettant la reconstruction des entrées utilisateurs, et propose KV-Cloak, une méthode de défense légère et efficace qui sécurise ce cache sans dégrader les performances ni la précision du modèle.

Zhifan Luo, Shuo Shao, Su Zhang, Lijing Zhou, Yuke Hu, Chenxu Zhao, Zhihao Liu, Zhan Qin2026-03-12💬 cs.CL

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Cet article présente le Yokai Learning Environment (YLE), un nouveau benchmark open-source pour la coordination zéro-shot qui, contrairement à l'environnement Hanabi, impose aux agents de construire un terrain d'entente en suivant des croyances dynamiques et en gérant des indices ambigus, révélant ainsi les limites des méthodes actuelles à généraliser leur collaboration avec des partenaires inconnus.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

From Next Token Prediction to (STRIPS) World Models

Cette étude démontre que la prédiction du prochain token peut générer des modèles de monde capables de planification en comparant un Transformer symbolique (STRIPS) et un Transformer standard, révélant que ce dernier, notamment avec une attention « stick-breaking », surpasse le premier en optimisation et en généralisation tout en permettant l'extraction de modèles STRIPS fonctionnels.

Carlos Núñez-Molina, Vicenç Gómez, Hector Geffner2026-03-12🤖 cs.AI

Global Minimizers of Sigmoid Contrastive Loss

Cet article explique théoriquement les avantages de la synchronisation de la température et du biais dans la perte de contraste sigmoïde (SigLIP) en caractérisant de nouvelles configurations optimales appelées « constellations », ce qui permet de justifier les performances de SigLIP, d'expliquer le décalage modal et de déterminer la dimensionnalité nécessaire pour des représentations de haute qualité.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

RADAR: Reasoning-Ability and Difficulty-Aware Routing for Reasoning LLMs

Le papier présente RADAR, un cadre de routage léger et interprétable qui optimise le compromis performance-coût des modèles de raisonnement en adaptant dynamiquement les requêtes aux paires modèle-budgétisation les plus appropriées en fonction de la difficulté de la requête et des capacités du modèle, inspiré par la psychométrie.

Nigel Fernandez, Branislav Kveton, Ryan A. Rossi, Andrew S. Lan, Zichao Wang2026-03-12🤖 cs.AI