Behavioral Inference at Scale: The Fundamental Asymmetry Between Motivations and Belief Systems

Cette étude démontre une asymétrie fondamentale dans l'inférence comportementale à grande échelle, où les motivations sont déduites avec une précision quasi parfaite (98-100 %) tandis que les systèmes de croyances restent largement indétectables (plafonnant à 49 % même avec des architectures avancées), révélant que la limite de l'inférence réside dans l'ambiguïté structurelle des croyances plutôt que dans les capacités des modèles.

Jason Starace, Terence Soule2026-03-10🤖 cs.LG

Synthetic Homes: An Accessible Multimodal Pipeline for Producing Residential Building Data with Generative AI

Cet article présente un cadre modulaire multimodal utilisant l'intelligence artificielle générative pour produire de manière accessible et réaliste des données synthétiques sur les bâtiments résidentiels à partir d'images publiques, afin de réduire la dépendance aux sources de données coûteuses ou restreintes pour la recherche en simulation énergétique.

Jackson Eshbaugh, Chetan Tiwari, Jorge Silveyra2026-03-10🤖 cs.LG

Physics-Aware Neural Operators for Direct Inversion in 3D Photoacoustic Tomography

Ce papier présente PANO, un opérateur neuronal physique-aware capable d'inverser directement les mesures brutes en images 3D de tomographie photoacoustique avec une haute précision et en temps réel, surpassant les méthodes traditionnelles et facilitant ainsi le passage vers des systèmes cliniques accessibles.

Jiayun Wang, Yousuf Aborahama, Arya Khokhar, Yang Zhang, Chuwei Wang, Karteekeya Sastry, Julius Berner, Yilin Luo, Boris Bonev, Zongyi Li, Kamyar Azizzadenesheli, Lihong V. Wang, Anima Anandkumar2026-03-10🤖 cs.LG

Fast reconstruction of degenerate populations of conductance-based neuron models from spike times

Cet article présente une méthode combinant l'apprentissage profond et les conductances d'entrée dynamiques (DIC) pour reconstruire rapidement et efficacement des populations dégénérées de modèles de neurones à base de conductance à partir uniquement des temps de décharge, en surmontant le défi de l'inférence des paramètres biophysiques malgré la variabilité des canaux ioniques.

Julien Brandoit, Damien Ernst, Guillaume Drion, Arthur Fyon2026-03-10🤖 cs.LG

ORIC: Benchmarking Object Recognition under Contextual Incongruity in Large Vision-Language Models

Ce papier présente ORIC, un cadre et une nouvelle évaluation (ORIC-Bench) conçus pour analyser et améliorer la capacité des grands modèles vision-langage à reconnaître des objets dans des contextes incongrus, en démontrant que ces situations augmentent les erreurs d'hallucination et en proposant une méthode d'ajustement fin par renforcement visuel pour y remédier.

Zhaoyang Li, Zhan Ling, Yuchen Zhou, Litian Gong, Erdem Bıyık, Hao Su2026-03-10🤖 cs.LG

ORN-CBF: Learning Observation-conditioned Residual Neural Control Barrier Functions via Hypernetworks

Cet article propose une méthode d'apprentissage de fonctions de barrière neuronales conditionnées par l'observation, fondée sur l'analyse de la faisabilité de Hamilton-Jacobi et une architecture de type hyper-réseau, qui garantit des ensembles sûrs optimaux et améliore la sécurité des systèmes autonomes dans des environnements partiellement observables.

Bojan Derajic, Sebastian Bernhard, Wolfgang Hönig2026-03-10🤖 cs.LG

AEGIS: Authentic Edge Growth In Sparsity for Link Prediction in Edge-Sparse Bipartite Knowledge Graphs

Ce papier présente AEGIS, un cadre d'augmentation basé uniquement sur les arêtes qui améliore la prédiction de liens dans les graphes de connaissances bipartis clairsemés en rééchantillonnant les arêtes existantes ou en utilisant une augmentation sémantique KNN, évitant ainsi la création de fausses connexions tout en préservant l'authenticité des données.

Hugh Xuechen Liu, Kıvanç Tatar2026-03-10🤖 cs.LG

Aurora: Towards Universal Generative Multimodal Time Series Forecasting

Le papier présente Aurora, un modèle fondamental multimodal pour la prévision de séries temporelles qui, grâce à son entraînement sur un corpus cross-domaine et l'intégration de connaissances textuelles et visuelles via une attention guidée et un matching de flux prototype, réalise une inférence zero-shot et des performances state-of-the-art sur divers benchmarks.

Xingjian Wu, Jianxin Jin, Wanghui Qiu + 4 more2026-03-10🤖 cs.LG

GDR-learners: Orthogonal Learning of Generative Models for Potential Outcomes

Ce papier présente les GDR-learners, une nouvelle famille d'apprentissages génératifs orthogonaux et doublement robustes qui, en s'inspirant de modèles d'état de l'art comme les flux normalisants conditionnels et les modèles de diffusion, permettent d'estimer de manière asymptotiquement optimale les distributions des résultats potentiels à partir de données observationnelles.

Valentyn Melnychuk, Stefan Feuerriegel2026-03-10🤖 cs.LG

CLAD-Net: Continual Activity Recognition in Multi-Sensor Wearable Systems

Le papier présente CLAD-Net, un cadre d'apprentissage continu intégrant un transformateur auto-supervisé et une distillation de connaissances pour permettre aux modèles de reconnaissance d'activités portables de s'adapter aux nouveaux sujets sans oublier les tâches précédentes, tout en restant performants malgré la rareté des données étiquetées.

Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh2026-03-10🤖 cs.LG

Generative Evolutionary Meta-Solver (GEMS): Scalable Surrogate-Free Multi-Agent Reinforcement Learning

Le papier présente GEMS, un cadre d'apprentissage par renforcement multi-agent sans surrogate qui remplace les populations explicites par un générateur amorti et des ancres latentes pour surmonter les inefficacités computationnelles et mémoire de PSRO tout en maintenant des garanties théoriques de jeu et en obtenant de meilleures performances.

Alakh Sharma, Gaurish Trivedi, Kartikey Singh Bhandari, Yash Sinha, Dhruv Kumar, Pratik Narang, Jagat Sesh Challa2026-03-10🤖 cs.LG

Overlap-Adaptive Regularization for Conditional Average Treatment Effect Estimation

Cet article présente une nouvelle méthode de régularisation adaptative à l'overlap (OAR) qui améliore l'estimation de l'effet moyen conditionnel du traitement (CATE) dans les régions à faible recouvrement en ajustant la régularisation des modèles selon les poids d'overlap, tout en préservant l'orthogonalité de Neyman pour des inférences robustes.

Valentyn Melnychuk, Dennis Frauen, Jonas Schweisthal, Stefan Feuerriegel2026-03-10🤖 cs.LG

Your Agent May Misevolve: Emergent Risks in Self-evolving LLM Agents

Cette étude introduit le concept de « misevolution » pour décrire les risques émergents où les agents LLM auto-évoluant se dégradent ou deviennent dangereux, en démontrant empiriquement que ce phénomène affecte même les modèles de pointe et nécessite de nouveaux paradigmes de sécurité.

Shuai Shao, Qihan Ren, Chen Qian, Boyi Wei, Dadi Guo, Jingyi Yang, Xinhao Song, Linfeng Zhang, Weinan Zhang, Dongrui Liu, Jing Shao2026-03-10🤖 cs.LG

An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes

Cet article propose le DRQ-learner, un nouvel apprentissage méta pour l'estimation des résultats individuels dans les processus de décision markoviens, qui garantit la double robustesse, l'orthogonalité de Neyman et l'efficacité quasi-oracle tout en étant applicable à divers espaces d'états et modèles d'apprentissage automatique.

Emil Javurek, Valentyn Melnychuk, Jonas Schweisthal, Konstantin Hess, Dennis Frauen, Stefan Feuerriegel2026-03-10🤖 cs.LG