Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Cette étude démontre que, pour la prévision des ventes au détail caractérisée par une demande intermittente et des données manquantes, les méthodes d'ensemble basées sur des arbres de décision comme XGBoost surpassent les architectures d'apprentissage profond, suggérant que l'adéquation aux spécificités du problème prime sur la sophistication architecturale.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic2026-03-12🤖 cs.LG

Learning What Reinforcement Learning Can't: Interleaved Online Fine-Tuning for Hardest Questions

Ce papier présente ReLIFT, une méthode d'entraînement qui alterne l'apprentissage par renforcement et le fine-tuning supervisé en ligne pour surmonter les limites du RL et permettre aux modèles de langage d'acquérir de nouvelles connaissances et capacités de raisonnement au-delà de leurs compétences initiales.

Lu Ma, Hao Liang, Meiyi Qiang, Lexiang Tang, Xiaochen Ma, Zhen Hao Wong, Junbo Niu, Chengyu Shen, Runming He, Yanhao Li, Bin Cui, Wentao Zhang2026-03-12🤖 cs.AI

Sequential-Parallel Duality in Prefix Scannable Models

Ce papier propose une nouvelle classe de modèles séquentiels, les modèles prefix-scannables (PSM), qui généralisent les modèles à espace d'état en autorisant des opérateurs d'agrégation non associatifs comme le softmax, unifiant ainsi diverses architectures existantes tout en garantissant une inférence séquentielle efficace et une évaluation parallèle quasi constante.

Morris Yau, Sharut Gupta, Valerie Engelmayer, Kazuki Irie, Stefanie Jegelka, Jacob Andreas2026-03-12🤖 cs.LG

The Yokai Learning Environment: Tracking Beliefs Over Space and Time

Cet article présente le Yokai Learning Environment (YLE), un nouveau benchmark open-source pour la coordination zéro-shot qui, contrairement à l'environnement Hanabi, impose aux agents de construire un terrain d'entente en suivant des croyances dynamiques et en gérant des indices ambigus, révélant ainsi les limites des méthodes actuelles à généraliser leur collaboration avec des partenaires inconnus.

Constantin Ruhdorfer, Matteo Bortoletto, Johannes Forkel, Jakob Foerster, Andreas Bulling2026-03-12🤖 cs.AI

Universal Dynamics with Globally Controlled Analog Quantum Simulators

Cet article établit les conditions nécessaires et suffisantes pour l'universalité des simulateurs quantiques analogiques à contrôle global, propose une méthode de contrôle optimal direct pour synthétiser des Hamiltoniens complexes sous contraintes matérielles, et démontre expérimentalement la réalisation d'interactions à trois corps et de dynamiques topologiques sur une plateforme d'atomes de Rydberg.

Hong-Ye Hu, Abigail McClain Gomez, Liyuan Chen, Aaron Trowbridge, Andy J. Goldschmidt, Zachary Manchester, Frederic T. Chong, Arthur Jaffe, Susanne F. Yelin2026-03-12⚛️ quant-ph

Zero-Shot Transferable Solution Method for Parametric Optimal Control Problems

Cet article propose une méthode de résolution transférable pour les problèmes de contrôle optimal paramétriques, utilisant des politiques d'encodeur de fonctions et une décomposition hors ligne/en ligne pour permettre une adaptation zéro-shot efficace et quasi-optimale à de nouvelles tâches sans nécessiter de réoptimisation coûteuse.

Xingjian Li, Kelvin Kan, Deepanshu Verma, Krishna Kumar, Stanley Osher, Ján Drgona2026-03-12🤖 cs.LG

Global Minimizers of Sigmoid Contrastive Loss

Cet article explique théoriquement les avantages de la synchronisation de la température et du biais dans la perte de contraste sigmoïde (SigLIP) en caractérisant de nouvelles configurations optimales appelées « constellations », ce qui permet de justifier les performances de SigLIP, d'expliquer le décalage modal et de déterminer la dimensionnalité nécessaire pour des représentations de haute qualité.

Kiril Bangachev, Guy Bresler, Iliyas Noman, Yury Polyanskiy2026-03-12🤖 cs.LG

Deep Learning for Clouds and Cloud Shadow Segmentation in Methane Satellite and Airborne Imaging Spectroscopy

Cette étude démontre que les architectures d'apprentissage profond, notamment U-Net et SCAN, surpassent les méthodes conventionnelles pour la segmentation précise des nuages et de leurs ombres dans les données hyperspectrales des missions MethaneSAT et MethaneAIR, garantissant ainsi une meilleure fiabilité des retraits de méthane.

Manuel Perez-Carrasco, Maya Nasr, Sebastien Roche + 12 more2026-03-12🤖 cs.LG

Multi-modal Data Spectrum: Multi-modal Datasets are Multi-dimensional

Cette étude empirique à grande échelle révèle que les dépendances intra et inter-modales varient considérablement à travers 23 benchmarks de question-réponse visuelle, démontrant que de nombreuses évaluations conçues pour réduire les biais textuels amplifient paradoxalement la dépendance aux seules images, ce qui appelle une refonte des méthodologies d'évaluation du apprentissage multimodal.

Divyam Madaan, Varshan Muhunthan, Kyunghyun Cho, Sumit Chopra2026-03-12💬 cs.CL

One-Prompt Strikes Back: Sparse Mixture of Experts for Prompt-based Continual Learning

Le papier présente SMoPE, un cadre novateur pour l'apprentissage continu basé sur des prompts qui intègre une architecture de mélange d'experts épars pour allier l'efficacité computationnelle des prompts partagés et la performance des prompts spécifiques à chaque tâche, réduisant ainsi les interférences et les coûts tout en maintenant des résultats compétitifs.

Minh Le, Bao-Ngoc Dao, Huy Nguyen, Quyen Tran, Anh Nguyen, Nhat Ho2026-03-12🤖 cs.LG

RADAR: Reasoning-Ability and Difficulty-Aware Routing for Reasoning LLMs

Le papier présente RADAR, un cadre de routage léger et interprétable qui optimise le compromis performance-coût des modèles de raisonnement en adaptant dynamiquement les requêtes aux paires modèle-budgétisation les plus appropriées en fonction de la difficulté de la requête et des capacités du modèle, inspiré par la psychométrie.

Nigel Fernandez, Branislav Kveton, Ryan A. Rossi, Andrew S. Lan, Zichao Wang2026-03-12🤖 cs.AI

Composer: A Search Framework for Hybrid Neural Architecture Design

Ce papier présente Composer, un cadre de recherche modulaire qui découvre de nouvelles architectures hybrides de modèles de langage surpassant Llama 3.2 en termes de performance, d'efficacité et de précision sur des tâches en aval, en explorant systématiquement le vaste espace de conception des architectures neuronales.

Bilge Acun, Prasoon Sinha, Newsha Ardalani, Sangmin Bae, Alicia Golden, Chien-Yu Lin, Meghana Madhyastha, Fei Sun, Neeraja J. Yadwadkar, Carole-Jean Wu2026-03-12🤖 cs.LG

A Systematic Evaluation of Self-Supervised Learning for Label-Efficient Sleep Staging with Wearable EEG

Cet article présente la première évaluation systématique de l'apprentissage auto-supervisé pour le stade du sommeil à partir d'EEG portables, démontrant qu'il permet d'atteindre une précision clinique supérieure à 80 % avec seulement 5 à 10 % de données étiquetées, surpassant ainsi les modèles supervisés et les modèles de fondation génériques.

Emilio Estevan, María Sierra-Torralba, Eduardo López-Larraz, Luis Montesano2026-03-12🤖 cs.AI