Neuro-Symbolic Skill Discovery for Conditional Multi-Level Planning

Cet article présente une architecture d'apprentissage neuro-symbolique novatrice qui extrait des compétences symboliques généralisables à partir de quelques démonstrations non étiquetées, en combinant des réseaux de neurones pour la découverte de symboles et le contrôle de bas niveau avec des modèles de langage visuel pour l'interprétation et la planification hiérarchique, permettant ainsi d'exécuter des tâches complexes à long terme dans des environnements encombrés et non vus.

Hakan Aktas, Yigit Yildirim, Ahmet Firat Gamsiz + 3 more2026-03-03🤖 cs.AI

Error Bounds for Physics-Informed Neural Networks in Fokker-Planck PDEs

Cet article présente un cadre théorique et pratique pour établir des bornes d'erreur rigoureuses lors de l'utilisation de réseaux de neurones informés par la physique (PINN) afin d'approximer efficacement les solutions de l'équation de Fokker-Planck, offrant ainsi une alternative rapide et précise aux méthodes de Monte Carlo pour les systèmes stochastiques complexes.

Chun-Wei Kong, Luca Laurenti, Jay McMahon + 1 more2026-03-03⚡ eess

LD-EnSF: Synergizing Latent Dynamics with Ensemble Score Filters for Fast Data Assimilation with Sparse Observations

Ce papier présente LD-EnSF, une nouvelle méthode d'assimilation de données basée sur les scores qui accélère considérablement le suivi de systèmes dynamiques complexes en évitant les simulations coûteuses grâce à l'évolution des dynamiques dans un espace latent compact et l'intégration d'observations rares via un encodeur LSTM.

Pengpeng Xiao, Phillip Si, Peng Chen2026-03-03🤖 cs.LG

Efficient Aircraft Design Optimization Using Multi-Fidelity Models and Multi-fidelity Physics Informed Neural Networks

Cette recherche propose une méthode d'optimisation de la conception aéronautique plus efficace en combinant des modèles multi-fidélité, des réseaux de neurones informés par la physique (MPINN) et des autoencodeurs pour prédire rapidement des résultats haute fidélité à partir de simulations basse fidélité, réduisant ainsi la dépendance aux simulations coûteuses comme la FEM et la FVM.

Apurba Sarker2026-03-03🤖 cs.LG

Mixing Times and Privacy Analysis for the Projected Langevin Algorithm under a Modulus of Continuity

Cet article établit de nouvelles bornes de temps de mélange pour l'algorithme de Langevin projeté et de courbes de confidentialité pour le SGD bruyant sous-échantillonné, en étendant le cadre de l'amplification de la confidentialité par itération (PABI) aux itérations non nécessairement non expansives en exploitant le module de continuité des gradients.

Mario Bravo, Juan P. Flores-Mella, Cristóbal Guzmán2026-03-03📊 stat

Polynomial, trigonometric, and tropical activations

Cet article présente des fonctions d'activation basées sur des bases orthogonales (polynomiales, trigonométriques et tropicales) qui, grâce à une initialisation préservant la variance, permettent d'entraîner efficacement des modèles profonds comme GPT-2 et ConvNeXt tout en évitant les problèmes d'explosion ou de disparition des gradients et en facilitant le fine-tuning via l'interpolation d'Hermite.

Ismail Khalfaoui-Hassani, Stefan Kesselheim2026-03-03💬 cs.CL

Topological derivative approach for deep neural network architecture adaptation

Cet article propose une méthode novatrice d'adaptation progressive de l'architecture des réseaux de neurones profonds en profondeur, fondée sur l'utilisation de dérivées topologiques et d'une perspective de contrôle optimal pour déterminer mathématiquement les emplacements optimaux d'insertion de nouvelles couches et leurs initialisations, surpassant ainsi les stratégies d'adaptation existantes sur diverses tâches.

C G Krishnanunni, Tan Bui-Thanh, Clint Dawson2026-03-03🤖 cs.AI