Two-Step Data Augmentation for Masked Face Detection and Recognition: Turning Fake Masks to Real

Cet article propose un cadre d'augmentation de données en deux étapes combinant un warping de masques basé sur des règles et une traduction d'images non appariée par GAN pour générer des échantillons de visages masqués réalistes, améliorant ainsi la détection et la reconnaissance malgré des contraintes de ressources et de données limitées.

Yan Yang, George Bebis, Mircea Nicolescu2026-03-10🤖 cs.LG

Concurrent training methods for Kolmogorov-Arnold networks: Disjoint datasets and FPGA implementation

Cet article propose trois stratégies complémentaires pour accélérer l'entraînement des réseaux de Kolmogorov-Arnold (KAN) basés sur la méthode Newton-Kaczmarz : un pré-entraînement adapté, l'entraînement sur des sous-ensembles de données disjoints suivi d'une fusion de modèles, et une implémentation parallèle sur FPGA, le tout avec des résultats entièrement reproductibles.

Andrew Polar, Michael Poluektov2026-03-10🤖 cs.LG

Latent Sculpting for Zero-Shot Generalization: A Manifold Learning Approach to Out-of-Distribution Anomaly Detection

Cet article propose « Latent Sculpting », une architecture d'apprentissage hiérarchique combinant un encodeur Transformer et un flot autorégressif masqué pour structurer géométriquement l'espace latent et détecter avec succès des anomalies cybernétiques inconnues (zero-shot) dans des données tabulaires, surpassant ainsi les méthodes existantes sur des attaques furtives et des variations de déni de service.

Rajeeb Thapa Chhetri, Saurab Thapa, Avinash Kumar, Zhixiong Chen2026-03-10🤖 cs.LG

Certifying the Right to Be Forgotten: Primal-Dual Optimization for Sample and Label Unlearning in Vertical Federated Learning

Ce papier propose FedORA, une méthode d'optimisation primale-duale certifiée qui permet l'oubli efficace d'échantillons et d'étiquettes dans l'apprentissage fédéré vertical en résolvant un problème d'optimisation contraint avec une nouvelle fonction de perte favorisant l'incertitude, tout en garantissant théoriquement l'efficacité de l'oubli et en réduisant les coûts de calcul par rapport au réentraînement complet.

Yu Jiang, Xindi Tong, Ziyao Liu, Xiaoxi Zhang, Kwok-Yan Lam, Chee Wei Tan2026-03-10🤖 cs.LG

Sparse Offline Reinforcement Learning with Corruption Robustness

Ce papier propose des méthodes actor-critic avec des oracles d'estimation robustes et clairsemés pour obtenir les premières garanties non triviales d'apprentissage d'une politique quasi optimale dans des processus de décision markoviens haute dimension et clairsemés, même en présence de corruption forte des données et d'une couverture limitée à une seule politique.

Nam Phuong Tran, Andi Nika, Goran Radanovic, Long Tran-Thanh, Debmalya Mandal2026-03-10🤖 cs.LG

Reliable Grid Forecasting: State Space Models for Safety-Critical Energy Systems

Cette étude propose un cadre d'évaluation axé sur la sécurité pour la prévision de charge électrique, démontrant que les métriques de précision standards masquent des risques opérationnels critiques et introduisant des modèles d'espace d'état optimisés avec des contraintes de biais pour équilibrer la fiabilité des réserves et éviter les sur-prévisions coûteuses.

Sunki Hong, Jisoo Lee2026-03-10⚡ eess

From Mice to Trains: Amortized Bayesian Inference on Graph Data

Cet article propose une méthode d'inférence bayésienne amortie adaptée aux données graphiques, combinant des encodeurs invariants par permutation et des estimateurs de posterior neuronaux pour effectuer une inférence rapide et sans vraisemblance sur des paramètres de nœuds, d'arêtes et de graphes dans des domaines variés allant de la biologie à la logistique.

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian Bürkner2026-03-10🤖 cs.LG

DevBench: A Realistic, Developer-Informed Benchmark for Code Generation Models

Le papier présente DevBench, un benchmark réaliste et fondé sur des données de télémétrie de développeurs qui évalue neuf modèles de langage avancés sur des tâches de complétion de code en privilégiant la validité écologique et des diagnostics détaillés pour guider leur déploiement pratique.

Pareesa Ameneh Golnari, Adarsh Kumarappan, Wen Wen, Xiaoyu Liu, Gabriel Ryan, Yuting Sun, Shengyu Fu, Elsie Nallipogu2026-03-10🤖 cs.LG

ELSA: Efficient LLM-Centric Split Aggregation for Privacy-Aware Hierarchical Federated Learning over the Network Edge

Le papier propose ELSA, un cadre novateur combinant l'apprentissage fractionné et l'apprentissage fédéré hiérarchique pour optimiser le fine-tuning de modèles de langage à grande échelle sur le réseau de périphérie tout en garantissant la confidentialité des données et en surmontant les contraintes de ressources et d'hétérogénéité.

Xiaohong Yang, Tong Xie, Minghui Liwang, Chikai Shang, Yang Lu, Zhenzhen Jiao, Liqun Fu, Seyyedali Hosseinalipour2026-03-10🤖 cs.LG

Continuous-Flow Data-Rate-Aware CNN Inference on FPGA

Cet article propose une architecture d'inférence CNN continue et adaptée au débit de données pour FPGA, qui résout le problème de sous-utilisation des unités matérielles causé par la réduction du flux de données dans les couches de convolution et de pooling, permettant ainsi d'atteindre une utilisation matérielle proche de 100 % et d'exécuter des réseaux complexes comme MobileNet sur une seule puce avec un haut débit.

Tobias Habermann, Michael Mecik, Zhenyu Wang, César David Vera, Martin Kumm, Mario Garrido2026-03-10🤖 cs.LG

MeanCache: From Instantaneous to Average Velocity for Accelerating Flow Matching Inference

Le papier présente MeanCache, un cadre d'accélération sans entraînement pour l'inférence Flow Matching qui remplace le cache de vitesse instantanée par une approche de vitesse moyenne utilisant des produits Jacobien-vecteur, permettant d'obtenir des accélérations allant jusqu'à 4,56 fois sur des modèles de pointe comme FLUX.1 tout en préservant la qualité de génération.

Huanlin Gao, Ping Chen, Fuyuan Shi, Ruijia Wu, Li YanTao, Qiang Hui, Yuren You, Ting Lu, Chao Tan, Shaoan Zhao, Zhaoxiang Liu, Fang Zhao, Kai Wang, Shiguo Lian2026-03-10🤖 cs.LG

PASS: Certified Subset Repair for Classical and Quantum Pairwise Constrained Clustering

Le framework PASS propose une méthode évolutive pour le clustering k-moyennes avec contraintes pairwise, qui optimise un sous-ensemble réduit tout en garantissant la faisabilité des contraintes de type « cannot-link » via un certificat de réparation vérifiable, permettant ainsi des solutions efficaces sur des instances complexes où les méthodes de référence échouent.

Pedro Chumpitaz-Flores, My Duong, Ying Mao, Kaixun Hua2026-03-10🤖 cs.LG

Model-Free Neural State Estimation in Nonlinear Dynamical Systems: Comparing Neural and Classical Filters

Cette étude présente une comparaison systématique montrant que les modèles neuronaux sans modèle, en particulier les réseaux d'état d'espace, atteignent des performances d'estimation d'état comparables aux filtres de Kalnon linéaires forts et surpassent les méthodes classiques plus faibles, tout en offrant un débit d'inférence nettement supérieur.

Zhuochen Liu, Hans Walker, Rahul Jain2026-03-10🤖 cs.LG