Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

Ce papier propose une hiérarchie à cinq niveaux de la capacité d'apprentissage fondée sur la structure de l'information pour expliquer pourquoi la génération de code progresse plus fiablement que l'apprentissage par renforcement, en démontrant que les limites du progrès en ML dépendent davantage de la nature apprenable d'une tâche que de la simple augmentation de la taille des modèles.

Zhimin Zhao2026-03-10🤖 cs.LG

LongAudio-RAG: Event-Grounded Question Answering over Multi-Hour Long Audio

Le papier présente LongAudio-RAG, un cadre hybride qui répond aux questions sur des enregistrements audio de plusieurs heures en ancrant les réponses d'un grand modèle de langage dans des événements acoustiques structurés et horodatés, permettant ainsi une extraction efficace en périphérie et un raisonnement de haute qualité dans le cloud.

Naveen Vakada, Kartik Hegde, Arvind Krishna Sridhar, Yinyi Guo, Erik Visser2026-03-10🤖 cs.LG

Accelerated Predictive Coding Networks via Direct Kolen-Pollack Feedback Alignment

Le papier propose DKP-PC, une variante accélérée et évolutive du codage prédictif qui utilise des connexions de rétroaction directes pour éliminer les délais de propagation et la décroissance exponentielle des signaux d'erreur, tout en préservant la localité des mises à jour et en surpassant les performances des méthodes standard.

Davide Casnici, Martin Lefebvre, Justin Dauwels, Charlotte Frenkel2026-03-10🤖 cs.LG

Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

Le papier présente EC-Net, un cadre de modèle d'hypergraphe hyperbolique qui utilise des embeddings dans un disque de Poincaré et un apprentissage contrastif pour améliorer la robustesse et la précision de la compréhension des émotions multimodales, en particulier dans des conditions de bruit ou de données partielles.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon Fong2026-03-10🤖 cs.LG

ModalImmune: Immunity Driven Unlearning via Self Destructive Training

Ce papier présente ModalImmune, un cadre d'entraînement qui renforce la robustesse des systèmes multimodaux face à la perte ou la corruption de canaux d'entrée en apprenant intentionnellement à s'adapter à la destruction sélective d'informations modales grâce à des mécanismes de régularisation et d'adaptation automatique.

Rong Fu, Jia Yee Tan, Zijian Zhang, Ziming Wang, Zhaolu Kang, Muge Qi, Shuning Zhang, Simon Fong2026-03-10🤖 cs.LG

Characterizing MARL for Energy Control: A Multi-KPI Benchmark on the CityLearn Environment

Cet article propose un benchmark multi-KPI sur l'environnement CityLearn pour évaluer les algorithmes d'apprentissage par renforcement multi-agents (MARL) dans la gestion de l'énergie urbaine, démontrant que l'entraînement décentralisé surpasse l'entraînement centralisé et que l'apprentissage des dépendances temporelles améliore la durabilité des batteries.

Aymen Khouja, Imen Jendoubi, Oumayma Mahjoub, Oussama Mahfoudhi, Ruan De Kock, Siddarth Singh, Claude Formanek2026-03-10🤖 cs.LG

RAmmStein: Regime Adaptation in Mean-reverting Markets with Stein Thresholds -- Optimal Impulse Control in Concentrated AMMs

Ce papier présente RAmmStein, une méthode d'apprentissage par renforcement profond qui résout le problème de contrôle impulsionnel de la fourniture de liquidité concentrée en optimisant le moment des rééquilibrages grâce à la détection de régimes de marché, permettant ainsi de maximiser le retour sur investissement tout en réduisant drastiquement les coûts de transaction par rapport aux stratégies heuristiques existantes.

Pranay Anchuri2026-03-10🤖 cs.LG

Benchmarking GNN Models on Molecular Regression Tasks with CKA-Based Representation Analysis

Cette étude présente un benchmark systématique de quatre architectures de GNN sur des tâches de régression moléculaire, démontrant qu'une approche de fusion hiérarchique combinant GNN et empreintes moléculaires surpasse les modèles individuels, tout en révélant via l'analyse CKA que les représentations apprises par les GNN et les empreintes occupent des espaces latents largement indépendants.

Rajan, Ishaan Gupta2026-03-10🤖 cs.LG

MrBERT: Modern Multilingual Encoders via Vocabulary, Domain, and Dimensional Adaptation

Le papier présente MrBERT, une famille d'encodeurs multilingues modernes optimisés pour des tâches spécifiques en catalan et en espagnol ainsi que pour des domaines spécialisés comme le juridique et le biomédical, tout en intégrant l'apprentissage de représentations matryoshka pour réduire les coûts d'inférence et de stockage.

Daniel Tamayo, Iñaki Lacunza, Paula Rivera-Hidalgo, Severino Da Dalt, Javier Aula-Blasco, Aitor Gonzalez-Agirre, Marta Villegas2026-03-10🤖 cs.LG

Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments

Ce papier présente une méthode augmentant la pertinence de la recherche sur l'App Store en générant des millions d'étiquettes de pertinence textuelle via un modèle de langage spécialisé, ce qui améliore significativement les métriques hors ligne et le taux de conversion lors d'un test A/B mondial, en particulier pour les requêtes peu fréquentes.

Evangelia Christakopoulou, Vivekkumar Patel, Hemanth Velaga, Sandip Gaikwad, Sean Suchter, Venkat Sundaranatha2026-03-10🤖 cs.LG

End-to-end Differentiable Calibration and Reconstruction for Optical Particle Detectors

Cet article présente le premier simulateur de détecteurs de particules optiques entièrement différentiable, permettant une calibration et une reconstruction simultanées par optimisation basée sur le gradient qui surpassent ou égalent les méthodes conventionnelles tout en simplifiant les pipelines d'analyse.

Omar Alterkait, César Jesús-Valls, Ryo Matsumoto, Patrick de Perio, Kazuhiro Terao2026-03-10🤖 cs.LG

Attn-QAT: 4-Bit Attention With Quantization-Aware Training

Ce papier présente Attn-QAT, la première étude systématique de l'entraînement sensible à la quantification (QAT) pour l'attention en 4 bits, qui surmonte les instabilités d'entraînement en corrigeant les hypothèses de précision implicites et en permettant une accélération jusqu'à 1,5x sur les GPU RTX 5090 sans heuristiques de mitigation des valeurs aberrantes.

Peiyuan Zhang, Matthew Noto, Wenxuan Tan, Chengquan Jiang, Will Lin, Wei Zhou, Hao Zhang2026-03-10🤖 cs.LG

The Partition Principle Revisited: Non-Equal Volume Designs Achieve Minimal Expected Star Discrepancy

Cet article établit que des partitions de volumes inégaux permettent de générer des ensembles de points par échantillonnage stratifié dont la discrépance étoile attendue est inférieure à celle de l'échantillonnage jittered classique, tout en fournissant de nouvelles bornes supérieures explicites qui renforcent la base théorique de l'intégration numérique en haute dimension.

Xiaoda Xu2026-03-10🤖 cs.LG