Towards Efficient and Stable Ocean State Forecasting: A Continuous-Time Koopman Approach

Cette étude propose l'utilisation d'un autoencodeur de Koopman en temps continu comme modèle substitut léger et stable pour la prévision à long terme de l'état océanique, surpassant les modèles autoregressifs par une croissance d'erreur bornée et une inférence nettement plus rapide tout en préservant les statistiques énergétiques globales.

Rares Grozavescu, Pengyu Zhang, Mark Girolami, Etienne Meunier2026-03-09🔬 physics.app-ph

When AI Levels the Playing Field: Skill Homogenization, Asset Concentration, and Two Regimes of Inequality

Ce papier propose un modèle théorique démontrant que l'IA générative, tout en homogénéisant les compétences individuelles, peut paradoxalement accroître les inégalités globales en concentrant la valeur économique sur des actifs complémentaires, créant ainsi deux régimes d'inégalité distincts selon la structure technologique et les institutions du marché du travail.

Xupeng Chen, Shuchen Meng2026-03-09🤖 cs.AI

Machine Learning for analysis of Multiple Sclerosis cross-tissue bulk and single-cell transcriptomics data

Cette étude présente un pipeline d'apprentissage automatique explicable intégrant des données transcriptomiques en vrac et à l'échelle cellulaire du sang et du liquide céphalo-rachidien pour identifier de nouveaux biomarqueurs et mécanismes moléculaires, notamment liés à l'activation immunitaire et au virus d'Epstein-Barr, dans la pathogenèse de la sclérose en plaques.

Francesco Massafra, Samuele Punzo, Silvia Giulia Galfré, Alessandro Maglione, Simone Pernice, Stefano Forti, Simona Rolla, Marco Beccuti, Marinella Clerico, Corrado Priami, Alina Sîrbu2026-03-09🤖 cs.LG

Why Depth Matters in Parallelizable Sequence Models: A Lie Algebraic View

En adoptant une perspective de contrôle algébrique de Lie, cette étude démontre théoriquement et valide expérimentalement que l'erreur d'approximation dans les modèles de séquences parallélisables diminue exponentiellement avec la profondeur, grâce à une correspondance entre la profondeur du modèle et la tour des extensions d'algèbres de Lie.

Gyuryang Heo, Timothy Ngotiaoco, Kazuki Irie, Samuel J. Gershman, Bernardo Sabatini2026-03-09🤖 cs.LG

Koopman Regularized Deep Speech Disentanglement for Speaker Verification

Cet article propose le DKSD-AE, un autoencodeur structuré combinant un opérateur de Koopman et une normalisation d'instance pour apprendre des représentations de locuteur décorrélées du contenu linguistique sans supervision textuelle, tout en surpassant ou égalant les performances des méthodes de l'état de l'art avec moins de paramètres.

Nikos Chazaridis, Mohammad Belal, Rafael Mestre, Timothy J. Norman, Christine Evers2026-03-09🤖 cs.LG

Spatiotemporal Heterogeneity of AI-Driven Traffic Flow Patterns and Land Use Interaction: A GeoAI-Based Analysis of Multimodal Urban Mobility

Cette étude propose un cadre d'analyse GeoAI hybride combinant MGWR, Random Forest et ST-GCN pour modéliser avec une grande précision les interactions spatio-temporelles hétérogènes entre l'usage des sols et les flux de trafic multimodaux, offrant ainsi aux urbanistes un outil interprétable pour la gestion de la mobilité et la conception de politiques foncières.

Olaf Yunus Laitinen Imanov2026-03-09🤖 cs.AI

On the Value of Tokeniser Pretraining in Physics Foundation Models

Cette étude démontre que le pré-entraînement d'un tokeniser via un objectif d'auto-encodage améliore significativement l'efficacité et la précision des modèles de fondation en physique, en particulier lorsque le pré-entraînement est réalisé sur le même système physique que la tâche finale.

Hadi Sotoudeh, Payel Mukhopadhyay, Ruben Ohana, Michael McCabe, Neil D. Lawrence, Shirley Ho, Miles Cranmer2026-03-09🔭 astro-ph

Behavior-dLDS: A decomposed linear dynamical systems model for neural activity partially constrained by behavior

L'article présente behavior-dLDS, un modèle de systèmes dynamiques linéaires décomposés qui permet de dissocier les sous-systèmes neuronaux liés au comportement de ceux dédiés aux calculs internes, démontrant ainsi son efficacité sur des données simulées et des enregistrements à grande échelle chez le poisson-zèbre.

Eva Yezerets, En Yang, Misha B. Ahrens, Adam S. Charles2026-03-09🤖 cs.LG

Making Reconstruction FID Predictive of Diffusion Generation FID

Ce papier propose l'interpolated FID (iFID), une nouvelle métrique dérivée du rFID qui, en interpolant les représentations latentes avec leurs plus proches voisins, établit pour la première fois une forte corrélation avec le FID de génération des modèles de diffusion, contrairement au rFID classique.

Tongda Xu, Mingwei He, Shady Abu-Hussein, Jose Miguel Hernandez-Lobato, Haotian Zhang, Kai Zhao, Chao Zhou, Ya-Qin Zhang, Yan Wang2026-03-09🤖 cs.LG

When Rubrics Fail: Error Enumeration as Reward in Reference-Free RL Post-Training for Virtual Try-On

Cet article propose l'« Implicit Error Counting » (IEC), une méthode d'apprentissage par renforcement sans référence qui remplace les rubriques d'évaluation par un comptage d'erreurs pondérées, démontrant ainsi son efficacité supérieure à l'approche « Rubrics as Rewards » pour le réessayage virtuel de vêtements où plusieurs réponses valides existent.

Wisdom Ikezogwo, Mehmet Saygin Seyfioglu, Ranjay Krishna, Karim Bouyarmane2026-03-09🤖 cs.AI