Wasserstein Gradient Flows for Scalable and Regularized Barycenter Computation

Este artículo presenta un método escalable y regularizado para el cálculo de barycentros de Wasserstein mediante flujos de gradiente, que supera las limitaciones de los enfoques existentes al permitir el uso de mini-lotes, incorporar regularización modular e integrar información supervisada, logrando así un nuevo estado del arte en tareas de adaptación de dominio.

Eduardo Fernandes Montesuma, Yassir Bendou, Mike GartrellTue, 10 Ma🤖 cs.LG

Shortcut Invariance: Targeted Jacobian Regularization in Disentangled Latent Space

Este artículo propone un método de regularización direccional en el espacio latente que mitiga el aprendizaje de atajos y mejora la generalización fuera de distribución al identificar ejes correlacionados con etiquetas y reducir la sensibilidad del clasificador hacia ellos mediante la inyección de ruido anisotrópico, sin requerir etiquetas de atajos ni ejemplos conflictivos.

Shivam Pal, Sakshi Varshney, Piyush RaiTue, 10 Ma🤖 cs.LG

Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability

Este artículo presenta la Regresión Isotónica Shapley Escasa (SISR), un marco unificado de explicación no lineal que aprende simultáneamente una transformación monótona para restaurar la aditividad y aplica una restricción de escasez L0 para identificar características relevantes de manera eficiente, superando así las limitaciones de distorsión y costo computacional de los valores Shapley estándar en escenarios de alta dimensionalidad y dependencias complejas.

Jialai SheTue, 10 Ma🤖 cs.LG

Sparse Offline Reinforcement Learning with Corruption Robustness

Este trabajo propone métodos actor-crítico con oráculos de estimación robusta y dispersa que logran las primeras garantías no triviales para el aprendizaje por refuerzo offline en MDPs de alta dimensión y dispersos bajo concentrabilidad de política única y corrupción de datos fuerte, superando las limitaciones de los enfoques tradicionales como la iteración de valor por mínimos cuadrados.

Nam Phuong Tran, Andi Nika, Goran Radanovic, Long Tran-Thanh, Debmalya MandalTue, 10 Ma🤖 cs.LG

From Mice to Trains: Amortized Bayesian Inference on Graph Data

Este trabajo adapta la Inferencia Bayesiana Amortizada (ABI) a datos de grafos mediante un pipeline de dos módulos que combina codificadores invariantes a permutaciones con estimadores neuronales de posterior, demostrando su eficacia en la recuperación y calibración de parámetros a nivel de nodos, aristas y grafos en dominios sintéticos, biológicos y logísticos.

Svenja Jedhoff, Elizaveta Semenova, Aura Raulo, Anne Meyer, Paul-Christian BürknerTue, 10 Ma🤖 cs.LG

Scalable multitask Gaussian processes for complex mechanical systems with functional covariates

Este trabajo propone un modelo escalable de procesos gaussianos multitarea con covariables funcionales que, mediante una estructura de núcleo separable y la explotación de la estructura de Kronecker, permite cuantificar la incertidumbre de manera eficiente en sistemas mecánicos complejos, superando a los enfoques de tarea única con menos muestras y menor costo computacional.

Razak Christophe Sabi Gninkou (UPHF, INSA Hauts-De-France, CERAMATHS), Andrés F. López-Lopera (IMAG, LEMON, UM), Franck Massa (LAMIH, INSA Hauts-De-France, UPHF), Rodolphe Le Riche (LIMOS, UCA [2017-2020], ENSM ST-ETIENNE, CNRS)Tue, 10 Ma🔢 math

NEST: Network- and Memory-Aware Device Placement For Distributed Deep Learning

El artículo presenta NEST, un marco de colocación de dispositivos consciente de la red, la memoria y la computación que unifica el paralelismo de modelos y la viabilidad de memoria mediante programación dinámica estructurada, logrando un mayor rendimiento y escalabilidad en comparación con las soluciones existentes para el entrenamiento distribuido de aprendizaje profundo.

Irene Wang, Vishnu Varma Venkata, Arvind Krishnamurthy, Divya MahajanTue, 10 Ma🤖 cs.LG

CREDO: Epistemic-Aware Conformalized Credal Envelopes for Regression

El artículo presenta CREDO, un método que combina la construcción de envolventes credales interpretables para capturar la incertidumbre epistémica con la calibración conformalizada para garantizar una cobertura válida, logrando intervalos de predicción en regresión que son tanto eficientes como interpretables.

Luben M. C. Cabezas, Sabina J. Sloman, Bruno M. Resende, Fanyi Wu, Michele Caprio, Rafael IzbickiTue, 10 Ma🤖 cs.LG

Kernel Methods for Some Transport Equations with Application to Learning Kernels for the Approximation of Koopman Eigenfunctions: A Unified Approach via Variational Methods, Green's Functions and the Method of Characteristics

Este trabajo presenta un marco unificado que demuestra la equivalencia de tres métodos analíticos (variacional, de funciones de Green y de características) para construir núcleos de reproducción en espacios de Hilbert que aproximan funciones propias de Koopman y otras ecuaciones de transporte, validado mediante optimización convexa y aprendizaje de múltiples núcleos.

Boumediene Hamzi, Houman Owhadi, Umesh VaidyaTue, 10 Ma🔢 math

Fairness May Backfire: When Leveling-Down Occurs in Fair Machine Learning

Este artículo establece que, aunque la equidad algorítmica en modelos que utilizan atributos sensibles mejora inevitablemente los resultados del grupo desfavorecido, la imposición de restricciones de equidad en modelos ciegas a estos atributos puede generar efectos adversos o "nivelación hacia abajo" para ambos grupos dependiendo de la distribución de los datos y la presencia de candidatos ocultos.

Yi Yang, Xiangyu Chang, Pei-yu ChenTue, 10 Ma🤖 cs.LG

Post-Training with Policy Gradients: Optimality and the Base Model Barrier

El artículo demuestra que, aunque el ajuste fino con gradientes de política y recompensas de resultado puede optimizar modelos autoregresivos lineales dentro del soporte del modelo base, superar esta barrera requiere un número exponencial de consultas a menos que se utilicen recompensas de proceso que dependan de un cuantil de verosimilitud a nivel de token para evitar la maldición de la dimensionalidad.

Alireza Mousavi-Hosseini, Murat A. ErdogduTue, 10 Ma🤖 cs.LG

Combinatorial Allocation Bandits with Nonlinear Arm Utility

Este artículo propone el problema de aprendizaje en línea de "Bandidos de Asignación Combinatoria" (CAB) para plataformas de emparejamiento, introduciendo una métrica de satisfacción de los brazos en lugar de maximizar simplemente el número de coincidencias, y presenta algoritmos de límite superior de confianza y muestreo Thompson que garantizan cotas de regret aproximadas validadas mediante experimentos sintéticos.

Yuki Shibukawa, Koichi Tanaka, Yuta Saito, Shinji ItoTue, 10 Ma🤖 cs.LG