Variational Flow Maps: Make Some Noise for One-Step Conditional Generation

Ce papier présente les Variational Flow Maps, un cadre qui permet la génération conditionnelle en une seule étape en apprenant un adaptateur de bruit pour respecter les observations et les a priori des données, surpassant ainsi les modèles itératifs en vitesse tout en maintenant une haute fidélité.

Abbas Mammadov, So Takao, Bohan Chen, Ricardo Baptista, Morteza Mardani, Yee Whye Teh, Julius Berner2026-03-10🤖 cs.LG

AutoResearch-RL: Perpetual Self-Evaluating Reinforcement Learning Agents for Autonomous Neural Architecture Discovery

L'article présente AutoResearch-RL, un cadre d'apprentissage par renforcement qui permet à un agent autonome de découvrir et d'optimiser perpétuellement des architectures de réseaux neuronaux et des hyperparamètres sans supervision humaine, en modifiant itérativement un script d'entraînement jusqu'à atteindre des performances égales ou supérieures aux réglages manuels.

Nilesh Jain, Rohit Yadav, Sagar Kotian, Claude AI2026-03-10🤖 cs.LG

StructSAM: Structure- and Spectrum-Preserving Token Merging for Segment Anything Models

Le papier propose StructSAM, un cadre de fusion et de récupération de tokens préservant la structure et le spectre, spécifiquement conçu pour accélérer les modèles Segment Anything (SAM) tout en protégeant les contours et les informations de prompt, surpassant ainsi les méthodes existantes sur divers benchmarks naturels et médicaux.

Duy M. H. Nguyen, Tuan A. Tran, Duong Nguyen, Siwei Xie, Trung Q. Nguyen, Mai T. N. Truong, Daniel Palenicek, An T. Le, Michael Barz, TrungTin Nguyen, Tuan Dam, Ngan Le, Minh Vu, Khoa Doan, Vien Ngo, Pengtao Xie, James Zou, Daniel Sonntag, Jan Peters, Mathias Niepert2026-03-10🤖 cs.LG

Norm-Hierarchy Transitions in Representation Learning: When and Why Neural Networks Abandon Shortcuts

Ce papier propose le cadre de la transition hiérarchie-norme (NHT) pour expliquer comment la descente de gradient régularisée fait basculer lentement les réseaux de neurones des solutions de raccourcis à haute norme vers des représentations structurées à basse norme, un mécanisme unifiant le « grokking » et l'apprentissage tardif de caractéristiques.

Truong Xuan Khanh, Truong Quynh Hoa2026-03-10🤖 cs.LG

Explainable and Hardware-Efficient Jamming Detection for 5G Networks Using the Convolutional Tsetlin Machine

Ce papier propose une méthode de détection de brouillage pour les réseaux 5G basée sur la Machine Tsetlin Convolutionnelle (CTM), qui offre une alternative interprétable et économe en ressources par rapport aux réseaux de neurones profonds, permettant un déploiement matériel efficace sur FPGA pour des environnements de bord contraints.

Vojtech Halenka, Mohammadreza Amini, Per-Arne Andersen, Ole-Christoffer Granmo, Burak Kantarci2026-03-10🤖 cs.LG

Learning Concept Bottleneck Models from Mechanistic Explanations

Cet article présente le Mechanistic CBM (M-CBM), une nouvelle approche qui améliore l'interprétabilité et les performances des modèles à goulot d'étranglement en extrayant et en nommant automatiquement les concepts appris par un modèle boîte noire via des auto-encodeurs parcimonieux et un LLM multimodal, surpassant ainsi les méthodes précédentes tout en assurant un contrôle strict des fuites d'information.

Antonio De Santis, Schrasing Tong, Marco Brambilla, Lalana Kagal2026-03-10🤖 cs.LG

A Distributed Gaussian Process Model for Multi-Robot Mapping

Les auteurs proposent DistGP, une méthode d'apprentissage collaboratif multi-robots utilisant un processus gaussien parcimonieux et la propagation de croyances gaussienne pour entraîner un modèle global de manière distribuée et asynchrone, surpassant ainsi les approches existantes en termes de précision, de robustesse aux communications limitées et d'apprentissage continu.

Seth Nabarro, Mark van der Wilk, Andrew J. Davison2026-03-10🤖 cs.LG

AgrI Challenge: A Data-Centric AI Competition for Cross-Team Validation in Agricultural Vision

L'AgrI Challenge introduit un cadre de compétition axé sur les données pour la vision agricole, où douze équipes collectent indépendamment des images d'arbres afin d'évaluer et d'améliorer la généralisation des modèles via une validation inter-équipes, démontrant ainsi que l'entraînement collaboratif multi-sources réduit considérablement les écarts de performance liés aux décalages de distribution.

Mohammed Brahimi, Karim Laabassi, Mohamed Seghir Hadj Ameur, Aicha Boutorh, Badia Siab-Farsi, Amin Khouani, Omar Farouk Zouak, Seif Eddine Bouziane, Kheira Lakhdari, Abdelkader Nabil Benghanem2026-03-10🤖 cs.LG

Latent Generative Models with Tunable Complexity for Compressed Sensing and other Inverse Problems

Cet article propose des modèles génératifs à complexité ajustable, basés sur le « nested dropout », qui surpassent les approches à complexité fixe pour résoudre divers problèmes inverses tels que la compression, l'inpainting et le débruitage, tout en offrant une analyse théorique de l'optimisation de ce paramètre.

Sean Gunn, Jorio Cocola, Oliver De Candido, Vaggos Chatziafratis, Paul Hand2026-03-10🤖 cs.LG

Scaling Laws in the Tiny Regime: How Small Models Change Their Mistakes

Cette étude révèle que dans le régime des modèles très petits (moins de 20 millions de paramètres), les lois d'échelle de la performance diffèrent significativement de celles des grands modèles, avec des erreurs qui changent de nature plutôt que de simplement diminuer, une calibration optimale pour les plus petits modèles et une saturation rapide des architectures complexes, soulignant la nécessité d'évaluer les performances directement à la taille cible pour les déploiements edge.

Mohammed Alnemari, Rizwan Qureshi, Nader Begrazadah2026-03-10🤖 cs.LG