Generalizable deep learning for photoplethysmography-based blood pressure estimation -- A Benchmarking Study

Cette étude de benchmarking évalue la capacité de généralisation de cinq modèles d'apprentissage profond pour l'estimation de la pression artérielle à partir de PPG, révélant une baisse significative des performances sur des données externes et soulignant l'importance cruciale de l'adaptation de domaine pour surmonter les disparités de distribution entre les jeux de données.

Mohammad Moulaeifard, Peter H. Charlton, Nils Strodthoff2026-03-03⚡ eess

LLaVE: Large Language and Vision Embedding Models with Hardness-Weighted Contrastive Learning

Le papier présente LLaVE, un cadre d'apprentissage contrastif pondéré par la difficulté qui améliore l'entraînement des modèles d'encodage multimodaux pour mieux distinguer les paires négatives difficiles, permettant ainsi d'atteindre des performances de pointe sur le benchmark MMEB avec une meilleure efficacité que les modèles précédents.

Zhibin Lan, Liqiang Niu, Fandong Meng + 2 more2026-03-03💬 cs.CL

Vision-R1: Incentivizing Reasoning Capability in Multimodal Large Language Models

Le papier présente Vision-R1, un modèle multimodal de langage qui améliore les capacités de raisonnement grâce à une stratégie d'entraînement par apprentissage par renforcement combinant un jeu de données de chaîne de pensée initialisé automatiquement et une suppression progressive de la sur-réflexion, atteignant ainsi des performances compétitives sur les benchmarks de raisonnement mathématique.

Wenxuan Huang, Bohan Jia, Zijie Zhai + 7 more2026-03-03💬 cs.CL

Reproducibility and Artifact Consistency of the SIGIR 2022 Recommender Systems Papers Based on Message Passing

Cette étude révèle que la plupart des articles SIGIR 2022 sur les systèmes de recommandation basés sur le passage de messages souffrent de pratiques erronées, d'incohérences entre les artefacts et les descriptions, et de comparaisons biaisées, rendant leurs résultats et leurs affirmations de progrès non reproductibles et non validés.

Maurizio Ferrari Dacrema, Michael Benigni, Nicola Ferro2026-03-03🤖 cs.LG

A Multi-Objective Evaluation Framework for Analyzing Utility-Fairness Trade-Offs in Machine Learning Systems

Cet article présente un cadre d'évaluation multi-objectif, agnostique et disponible publiquement, conçu pour analyser et visualiser les compromis entre utilité et équité dans les systèmes d'apprentissage automatique, en mettant particulièrement l'accent sur leur application critique dans le domaine de l'imagerie médicale.

Gökhan Özbulak, Oscar Jimenez-del-Toro, Maíra Fatoretto + 2 more2026-03-03🤖 cs.LG

Geometric Reasoning in the Embedding Space

Cette étude démontre que les réseaux de neurones à graphes et les transformateurs peuvent apprendre à raisonner sur des contraintes géométriques pour prédire des positions dans une grille 2D, en réorganisant leurs représentations internes pour reconstruire la structure de la grille, le réseau de neurones à graphes proposé surpassant significativement le transformateur en performance et en évolutivité.

Jan Hůla, David Mojžíšek, Jiří Janeček + 2 more2026-03-03🤖 cs.LG

Optimistic Online Learning in Symmetric Cone Games

Ce papier introduit les jeux à cône symétrique comme cadre unificateur pour divers problèmes d'optimisation et de théorie des jeux, et propose l'algorithme OSCMWU, une méthode d'apprentissage en ligne optimiste qui calcule efficacement des équilibres de Nash avec une complexité itérative O~(1/ϵ)\tilde{\mathcal{O}}(1/\epsilon) en exploitant la forte convexité de l'entropie négative sur les cône symétriques.

Anas Barakat, Wayne Lin, John Lazarsfeld + 1 more2026-03-03🔢 math

Identifying and Evaluating Inactive Heads in Pretrained LLMs

Cette étude propose et évalue douze fonctions de score pour identifier les têtes d'attention inactives dans les grands modèles de langage, démontrant que plus de 12 % de ces têtes peuvent être supprimées sans perte significative de performance et que les méthodes basées uniquement sur les poids d'attention sous-estiment considérablement ce phénomène.

Pedro Sandoval-Segura, Xijun Wang, Ashwinee Panda + 4 more2026-03-03🤖 cs.LG

Sparsification Under Siege: Dual-Level Defense Against Poisoning in Communication-Efficient Federated Learning

Cet article présente SafeSparse, un cadre de défense à double niveau qui résout le compromis entre robustesse et efficacité communicationnelle dans l'apprentissage fédéré en utilisant une calibration structurelle et un alignement sémantique directionnel pour contrer les attaques par empoisonnement lors de la sparsification des gradients.

Zhiyong Jin, Runhua Xu, Chao Li + 3 more2026-03-03🤖 cs.LG