The Role of Feature Interactions in Graph-based Tabular Deep Learning

En analysant des ensembles de données synthétiques, cette étude révèle que les méthodes d'apprentissage profond tabulaire basées sur des graphes échouent à reconstruire correctement les interactions entre caractéristiques, ce qui démontre que prioriser la modélisation précise de la structure du graphe est essentiel pour améliorer la précision prédictive.

Elias Dubbeldam, Reza Mohammadi, Marit Schoonhoven, S. Ilker BirbilTue, 10 Ma🤖 cs.LG

Bayesian neural networks with interpretable priors from Mercer kernels

Cet article présente une nouvelle classe de priors, appelés priors de Mercer, pour les réseaux de neurones bayésiens, qui permettent de définir des distributions sur les paramètres du réseau à partir de la représentation de Mercer d'un noyau de covariance afin que les échantillons du réseau approximent ceux d'un processus gaussien spécifié, combinant ainsi l'interprétabilité des processus gaussiens avec l'évolutivité des réseaux de neurones.

Alex Alberts, Ilias BilionisTue, 10 Ma🤖 cs.LG

Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability

Cet article présente la Régression Isotonique Shapley Sparse (SISR), un cadre unifié d'explication non linéaire qui apprend simultanément une transformation monotone pour restaurer l'additivité et impose une contrainte de parcimonie pour identifier efficacement les caractéristiques pertinentes, surmontant ainsi les limitations des valeurs de Shapley canoniques face aux dépendances entre variables et aux distributions non gaussiennes.

Jialai SheTue, 10 Ma🤖 cs.LG

Sparse Offline Reinforcement Learning with Corruption Robustness

Ce papier propose des méthodes actor-critic avec des oracles d'estimation robustes et clairsemés pour obtenir les premières garanties non triviales d'apprentissage d'une politique quasi optimale dans des processus de décision markoviens haute dimension et clairsemés, même en présence de corruption forte des données et d'une couverture limitée à une seule politique.

Nam Phuong Tran, Andi Nika, Goran Radanovic, Long Tran-Thanh, Debmalya MandalTue, 10 Ma🤖 cs.LG

From Mice to Trains: Amortized Bayesian Inference on Graph Data

Cet article propose une méthode d'inférence bayésienne amortie adaptée aux données graphiques, combinant des encodeurs invariants par permutation et des estimateurs de posterior neuronaux pour effectuer une inférence rapide et sans vraisemblance sur des paramètres de nœuds, d'arêtes et de graphes dans des domaines variés allant de la biologie à la logistique.

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian BürknerTue, 10 Ma🤖 cs.LG

Scalable multitask Gaussian processes for complex mechanical systems with functional covariates

Cet article propose un modèle de processus gaussien multitâche évolutif, doté d'une structure de noyau séparable et d'une quantification d'incertitude, capable de traiter efficacement des covariables fonctionnelles et des tâches corrélées pour des systèmes mécaniques complexes, comme démontré par son application à une assemblage riveté nécessitant peu d'échantillons pour des prédictions précises.

Razak Christophe Sabi Gninkou (UPHF, INSA Hauts-De-France, CERAMATHS), Andrés F. López-Lopera (IMAG, LEMON, UM), Franck Massa (LAMIH, INSA Hauts-De-France, UPHF), Rodolphe Le Riche (LIMOS, UCA [2017-2020], ENSM ST-ETIENNE, CNRS)Tue, 10 Ma🔢 math

The Partition Principle Revisited: Non-Equal Volume Designs Achieve Minimal Expected Star Discrepancy

Cet article établit que des partitions de volumes inégaux permettent de générer des ensembles de points par échantillonnage stratifié dont la discrépance étoile attendue est inférieure à celle de l'échantillonnage jittered classique, tout en fournissant de nouvelles bornes supérieures explicites qui renforcent la base théorique de l'intégration numérique en haute dimension.

Xiaoda XuTue, 10 Ma🤖 cs.LG

NEST: Network- and Memory-Aware Device Placement For Distributed Deep Learning

Le papier présente NEST, un cadre de placement de dispositifs pour l'apprentissage profond distribué qui unifie la modélisation du parallélisme, de la mémoire et de la topologie réseau via une programmation dynamique structurée, permettant d'optimiser conjointement la latence, la viabilité mémoire et le débit jusqu'à 2,43 fois supérieur aux méthodes de l'état de l'art.

Irene Wang, Vishnu Varma Venkata, Arvind Krishnamurthy, Divya MahajanTue, 10 Ma🤖 cs.LG

Kernel Methods for Some Transport Equations with Application to Learning Kernels for the Approximation of Koopman Eigenfunctions: A Unified Approach via Variational Methods, Green's Functions and the Method of Characteristics

Cet article présente un cadre unifié combinant des principes variationnels, des fonctions de Green et la méthode des caractéristiques pour construire des noyaux d'apprentissage adaptés aux équations de transport, permettant ainsi l'approximation précise et robuste des fonctions propres de l'opérateur de Koopman via une optimisation convexe sans maillage.

Boumediene Hamzi, Houman Owhadi, Umesh VaidyaTue, 10 Ma🔢 math

Combinatorial Allocation Bandits with Nonlinear Arm Utility

Cet article propose un nouveau problème d'apprentissage en ligne appelé « Combinatorial Allocation Bandits » (CAB) pour les plateformes de mise en correspondance, qui vise à maximiser la satisfaction globale des utilisateurs plutôt que le simple nombre de correspondances, en développant et en évaluant des algorithmes basés sur la borne de confiance supérieure et l'échantillonnage de Thompson.

Yuki Shibukawa, Koichi Tanaka, Yuta Saito, Shinji ItoTue, 10 Ma🤖 cs.LG