Post-hoc Stochastic Concept Bottleneck Models

Cet article présente les Modèles Stochastiques de Concepts Bottleneck Post-hoc (PSCBMs), une méthode légère qui améliore les modèles CBM pré-entraînés en y ajoutant une distribution multivariée pour capturer les dépendances entre les concepts, permettant ainsi d'augmenter la précision et la robustesse aux interventions sans nécessiter de réentraînement du modèle de base.

Wiktor Jan Hoffmann, Sonia Laguna, Moritz Vandenhirtz + 2 more2026-03-04🤖 cs.LG

Characterizing the Multiclass Learnability of Forgiving 0-1 Loss Functions

Cet article caractérise l'apprenabilité des fonctions de perte 0-1 « indulgentes » dans le cadre multiclasse en introduisant une nouvelle dimension combinatoire, la dimension de Natarajan généralisée, qui est finie si et seulement si la classe d'hypothèses est apprenable, couvrant ainsi divers scénarios d'apprentissage avec des retours sous forme d'ensembles et un apprentissage de listes modifié.

Jacob Trauger, Tyson Trauger, Ambuj Tewari2026-03-04📊 stat

Mitigating Over-Refusal in Aligned Large Language Models via Inference-Time Activation Energy

Cet article présente l'Energy Landscape Steering (ELS), un cadre novateur et sans réentraînement qui atténue le sur-rejet dans les grands modèles de langage alignés en guidant dynamiquement leurs activations internes vers des états désirables via un modèle externe basé sur l'énergie, améliorant ainsi la conformité aux requêtes bénignes tout en préservant la sécurité.

Eric Hanchen Jiang, Weixuan Ou, Run Liu + 8 more2026-03-04📊 stat

Auditing Information Disclosure During LLM-Scale Gradient Descent Using Gradient Uniqueness

Cet article présente GNQ, une métrique efficace et fondée sur la théorie de l'information pour auditer les risques de divulgation d'informations dans les grands modèles de langage, en surmontant les limitations computationnelles grâce à l'algorithme BS-Ghost GNQ qui permet d'évaluer la prédictibilité des séquences lors de l'entraînement.

Sleem Abdelghafar, Maryam Aliakbarpour, Chris Jermaine2026-03-04📊 stat

Quantum Kernel Methods: Convergence Theory, Separation Bounds and Applications to Marketing Analytics

Cet article présente une méthode hybride combinant une machine à vecteurs de support à noyau quantique et une extraction de caractéristiques quantiques pour une tâche de classification de consommateurs dans le régime NISQ, démontrant une sensibilité accrue et servant de point de départ concret pour l'intégration matérielle future.

Laura Sáez-Ortuño, Santiago Forgas-Coll, Massimiliano Ferrara2026-03-04⚛️ quant-ph

Secure Sparse Matrix Multiplications and their Applications to Privacy-Preserving Machine Learning

Cet article propose des algorithmes de multiplication de matrices creuses sécurisées par calcul multipartite (MPC) qui surmontent les limitations de mémoire et réduisent considérablement les coûts de communication par rapport aux méthodes denses, permettant ainsi l'application du machine learning préservant la vie privée sur des données réelles de grande dimension.

Marc Damie, Florian Hahn, Andreas Peter + 1 more2026-03-04🤖 cs.LG

Policy Transfer for Continuous-Time Reinforcement Learning: A (Rough) Differential Equation Approach

Cet article établit la première preuve théorique du transfert de politique pour l'apprentissage par renforcement en temps continu en exploitant la structure gaussienne des systèmes linéaires-quadratiques et la stabilité des équations différentielles stochastiques via la théorie des chemins rugueux, permettant ainsi d'initialiser la recherche d'une politique quasi-optimale pour un problème connexe tout en conservant le taux de convergence original.

Xin Guo, Zijiu Lyu2026-03-04🤖 cs.LG

Boosted Trees on a Diet: Compact Models for Resource-Constrained Devices

Cet article présente une méthode de compression pour les arbres de décision boostés qui, en favorisant le réutilisation des caractéristiques et des seuils durant l'entraînement, permet de réduire l'empreinte mémoire de 4 à 16 fois par rapport à LightGBM, facilitant ainsi le déploiement autonome de modèles d'apprentissage automatique sur des appareils IoT aux ressources limitées.

Nina Herrmann, Jan Stenkamp, Benjamin Karic + 2 more2026-03-04🤖 cs.LG

Graph Homomorphism Distortion: A Metric to Distinguish Them All and in the Latent Space Bind Them

Cet article propose une nouvelle métrique de distorsion basée sur les homomorphismes de graphes qui intègre à la fois la structure et les caractéristiques des nœuds pour évaluer la similarité entre graphes, comblant ainsi les lacunes des mesures d'expressivité existantes et améliorant les performances des réseaux de neurones graphiques.

Martin Carrasco, Olga Zaghen, Kavir Sumaraj + 2 more2026-03-04🤖 cs.LG

Continual Unlearning for Text-to-Image Diffusion Models: A Regularization Perspective

Cet article présente la première étude systématique de l'effacement continu dans les modèles de diffusion texte-à-image, démontrant que les méthodes actuelles échouent à cause d'une dérive des paramètres et proposant une approche de régularisation, incluant une projection de gradient, pour préserver les connaissances tout en supprimant les concepts ciblés.

Justin Lee, Zheda Mai, Jinsu Yoo + 3 more2026-03-04🤖 cs.LG