Graph Neural Networks on Factor Graphs for Robust, Fast, and Scalable Linear State Estimation with PMUs

Cet article présente une méthode innovante utilisant des réseaux de neurones à graphes appliqués à des graphes de facteurs pour réaliser une estimation d'état linéaire rapide, évolutive et robuste dans les réseaux de transmission équipés d'unités de mesure phasoriques (PMU), garantissant une précision élevée et une résilience locale face aux défaillances des capteurs.

Ognjen Kundacina, Mirsad Cosovic, Dragisa Miskovic + 1 more2026-03-09⚡ eess

Expert-Aided Causal Discovery of Ancestral Graphs

Cet article présente Ancestral GFlowNet (AGFN), un algorithme d'apprentissage par renforcement qui permet d'inférer la distribution des graphes ancestraux en intégrant de manière itérative des connaissances d'experts incertaines, tant a priori qu'a posteriori, pour affiner la découverte causale en présence de confondants latents.

Tiago da Silva, Bruna Bazaluk, Eliezer de Souza da Silva, António Góis, Salem Lahlou, Dominik Heider, Samuel Kaski, Diego Mesquita, Adèle Helena Ribeiro2026-03-09🤖 cs.LG

A unified framework for learning with nonlinear model classes from arbitrary linear samples

Cet article propose un cadre unifié pour l'apprentissage d'objets inconnus à partir de mesures linéaires arbitraires via des modèles non linéaires généraux, établissant de nouvelles garanties de généralisation optimales basées sur la variation du modèle et l'intégrale d'entropie, tout en unifiant et en étendant des résultats existants tels que le compressed sensing avec des modèles génératifs.

Ben Adcock, Juan M. Cardenas, Nick Dexter2026-03-09🤖 cs.LG

Estimation of Energy-dissipation Lower-bounds for Neuromorphic Learning-in-memory

Cet article établit des bornes inférieures théoriques pour l'énergie nécessaire à la résolution de problèmes par des optimiseurs neuromorphiques utilisant l'apprentissage en mémoire, en modélisant la thermodynamique hors équilibre de ces systèmes pour en déduire une efficacité énergétique dépendant uniquement du nombre d'opérations, de la taille du modèle, de la vitesse de convergence et de la précision.

Zihao Chen, Faiek Ahsan, Johannes Leugering, Gert Cauwenberghs, Shantanu Chakrabartty2026-03-09🤖 cs.AI

Make VLM Recognize Visual Hallucination on Cartoon Character Image with Pose Information

Cet article propose un système de détection d'hallucinations visuelles dans les images de personnages de dessins animés générés par IA, utilisant un modèle vision-langage enrichi par des informations de pose et l'apprentissage en contexte pour améliorer significativement la précision par rapport aux méthodes basées uniquement sur les images RVB.

Bumsoo Kim, Wonseop Shin, Kyuchul Lee, Yonghoon Jung, Sanghyun Seo2026-03-09🤖 cs.AI

BInD: Bond and Interaction-generating Diffusion Model for Multi-objective Structure-based Drug Design

Le modèle de diffusion BInD, guidé par des connaissances, surmonte les limites des méthodes existantes de conception de médicaments basée sur la structure en générant simultanément des molécules et leurs interactions avec une protéine cible, permettant ainsi d'optimiser de manière équilibrée les objectifs multiples tels que les interactions spécifiques, les propriétés moléculaires et la géométrie locale.

Joongwon Lee, Wonho Zhung, Jisu Seo, Woo Youn Kim2026-03-09🤖 cs.LG

Combining X-Vectors and Bayesian Batch Active Learning: Two-Stage Active Learning Pipeline for Speech Recognition

Cette article présente un pipeline d'apprentissage actif en deux étapes pour la reconnaissance automatique de la parole, combinant le clustering d'x-vectors pour la diversité et une méthode bayésienne basée sur le dropout Monte Carlo pour l'information, afin d'optimiser l'entraînement des modèles avec moins de données étiquetées.

Ognjen Kundacina, Vladimir Vincan, Dragisa Miskovic2026-03-09⚡ eess

Predictive Coding Networks and Inference Learning: Tutorial and Survey

Ce travail présente une revue complète et une spécification formelle des réseaux de codage prédictif, un cadre inspiré des neurosciences qui utilise l'apprentissage par inférence comme alternative biologiquement plausible et potentiellement plus efficace à la rétropropagation, tout en offrant une approche unifiée pour l'apprentissage supervisé et génératif.

Björn van Zwol, Ro Jefferson, Egon L. van den Broek2026-03-09🤖 cs.AI

Transforming Agency. On the mode of existence of Large Language Models

Cet article soutient que les grands modèles de langage, bien qu'ils ne possèdent pas d'agence autonome car ils échouent à satisfaire les conditions d'individualité, de normativité et d'asymétrie interactionnelle requises par les théories incarnées de l'esprit, doivent être définis comme des interlocuteurs linguistiques qui, par leur couplage avec les humains, transforment profondément les formes d'agence existantes en produisant des modalités d'agence « intermédiaires » (midtended) dépassant la simple instrumentalité étendue.

Xabier E. Barandiaran, Lola S. Almendros2026-03-09🤖 cs.AI

FALCON: Future-Aware Learning with Contextual Object-Centric Pretraining for UAV Action Recognition

Le papier présente FALCON, une méthode d'apprentissage auto-supervisé unifiée pour la reconnaissance d'actions par drone, qui surmonte les déséquilibres spatiaux des vidéos aériennes en intégrant un masquage centré sur les objets et une reconstruction du futur à double horizon pour améliorer la précision et la vitesse d'inférence.

Ruiqi Xian, Xiyang Wu, Tianrui Guan, Xijun Wang, Boqing Gong, Dinesh Manocha2026-03-09🤖 cs.AI

L0-Regularized Quadratic Surface Support Vector Machines

Cet article propose des variantes parcimonieuses des machines à vecteurs de support sur des surfaces quadratiques (QSVM) en imposant une contrainte de cardinalité via la norme 0\ell_0, et développe un algorithme de décomposition de pénalité efficace pour résoudre ce problème d'optimisation complexe tout en démontrant la supériorité du modèle sur des données de crédit réelles.

Ahmad Mousavi, Ramin Zandvakili, Zheming Gao2026-03-09🤖 cs.LG

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

Ce rapport de synthèse présente une vue d'ensemble structurée des techniques, des ensembles de données et des enjeux éthiques liés à l'utilisation des grands modèles de langage pour assister les chercheurs dans l'ensemble du cycle scientifique, de la découverte et l'expérimentation à la génération de contenu multimodal et à l'évaluation.

Steffen Eger, Yong Cao, Jennifer D'Souza, Andreas Geiger, Christian Greisinger, Stephanie Gross, Yufang Hou, Brigitte Krenn, Anne Lauscher, Yizhi Li, Chenghua Lin, Nafise Sadat Moosavi, Wei Zhao, Tristan Miller2026-03-09🤖 cs.AI

FragFM: Hierarchical Framework for Efficient Molecule Generation via Fragment-Level Discrete Flow Matching

Ce papier présente FragFM, un cadre hiérarchique innovant basé sur l'appariement de flux discret au niveau des fragments pour générer efficacement des graphes moléculaires avec un meilleur contrôle des propriétés, tout en introduisant le benchmark NPGen pour évaluer la génération de produits naturels.

Joongwon Lee, Seonghwan Kim, Seokhyun Moon, Hyunwoo Kim, Woo Youn Kim2026-03-09🤖 cs.AI

CAPS: Context-Aware Priority Sampling for Enhanced Imitation Learning in Autonomous Driving

Ce papier présente CAPS, une méthode de rééchantillonnage prioritaire contextuel utilisant des VQ-VAE pour équilibrer les données d'apprentissage par imitation et améliorer la généralisation des systèmes de conduite autonome dans le simulateur CARLA.

Hamidreza Mirkhani, Behzad Khamidehi, Ehsan Ahmadi, Mohammed Elmahgiubi, Weize Zhang, Fazel Arasteh, Umar Rajguru, Kasra Rezaee, Dongfeng Bai2026-03-09🤖 cs.LG