A Learned Proximal Alternating Minimization Algorithm and Its Induced Network for a Class of Two-block Nonconvex and Nonsmooth Optimization

Este trabajo propone un algoritmo de minimización alternada proximal aprendida (LPAM) y su red neuronal asociada (LPAM-net) para resolver problemas de optimización no convexos y no suaves de dos bloques, garantizando la convergencia a puntos estacionarios de Clarke y demostrando su eficacia y eficiencia paramétrica en la reconstrucción de imágenes de resonancia magnética multimodal.

Yunmei Chen, Lezhi Liu, Lei Zhang2026-03-10🤖 cs.LG

Autoassociative Learning of Structural Representations for Modeling and Classification in Medical Imaging

Este estudio propone un sistema neurosimbólico que reconstruye imágenes mediante primitivas visuales para generar explicaciones estructurales de alto nivel, logrando una mayor precisión y transparencia que las arquitecturas de aprendizaje profundo convencionales en el diagnóstico de anomalías en imágenes histológicas.

Zuzanna Buchnajzer, Kacper Dobek, Stanisław Hapke, Daniel Jankowski, Krzysztof Krawiec2026-03-10🤖 cs.LG

Optimizing Locomotor Task Sets in Biological Joint Moment Estimation for Hip Exoskeleton Applications

Este estudio presenta una estrategia de optimización de tareas locomotoras que, mediante análisis de agrupamiento de características biomecánicas, identifica un conjunto mínimo de tareas representativas para entrenar modelos de aprendizaje profundo que estiman con precisión los momentos articulares de la cadera, reduciendo significativamente la carga de recolección de datos sin comprometer el rendimiento del control del exoesqueleto.

Jimin An, Changseob Song, Eni Halilaj + 1 more2026-03-10🤖 cs.LG

Finite Sample Bounds for Non-Parametric Regression: Optimal Sample Efficiency and Space Complexity

Este artículo propone un método paramétrico de regresión no paramétrica que logra tasas de convergencia uniformes minimax óptimas para estimar funciones suaves y sus derivadas, resolviendo simultáneamente los problemas de alto costo computacional y memoria de los estimadores tradicionales mediante un enfoque ligero con límites finitos agudos y complejidad espacial reducida.

Davide Maran, Marcello Restelli2026-03-10🤖 cs.LG

Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control

Este trabajo investiga el papel del colapso de embeddings en el Prompt-Tuning, demostrando que los priors de embeddings influyen significativamente en la posición de los embeddings ajustados y que las capacidades de generalización de los modelos de lenguaje pueden funcionar en regiones activas diversas y no necesariamente localizadas en un único clúster.

Sergey Sedov, Sumanth Bharadwaj Hachalli Karanam, Venu Gopal Kadamba2026-03-10🤖 cs.LG

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Este trabajo presenta un método que utiliza modelos de visión y lenguaje preentrenados para aprender modelos de mundo simbólicos a partir de demostraciones cortas, permitiendo a los robots generalizar de forma cero-shot y resolver problemas de toma de decisiones a largo plazo en entornos complejos mediante planificación.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

UFGraphFR: Graph Federation Recommendation System based on User Text description features

El artículo presenta UFGraphFR, un sistema de recomendación federado que mejora la precisión y la personalización preservando la privacidad al transformar los datos locales en descripciones textuales para construir gráficos de relaciones de usuarios basados en similitud semántica y propagar información mediante redes neuronales gráficas ligeras y arquitecturas Transformer.

Xudong Wang, Qingbo Hao, Yingyuan Xiao2026-03-10🤖 cs.LG

General Coded Computing in a Probabilistic Straggler Regime

Este artículo analiza teóricamente y valida experimentalmente cómo dos esquemas de computación codificada general (BACC y LeTCC) logran que el error de aproximación converja a cero bajo un régimen de servidores lentos probabilístico, demostrando que la independencia en las fallas permite una precisión creciente incluso cuando el número promedio de servidores lentos escala con el tamaño del sistema.

Parsa Moradi, Mohammad Ali Maddah-Ali2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Este estudio analiza la seguridad y calidad del código generado por modelos de lenguaje grande (LLM) en múltiples lenguajes, revelando que, aunque automatizan la creación de código, su efectividad varía según el lenguaje y a menudo fallan al adoptar prácticas modernas de seguridad, como las actualizaciones de Java 17 o los métodos seguros en C++.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Controllable Sequence Editing for Biological and Clinical Trajectories

El modelo CLEF introduce un método de edición de secuencias que permite modificar de forma controlada y específica el momento y las variables afectadas en trayectorias biológicas y clínicas, superando significativamente a los métodos existentes en precisión y capacidad de generación de contrafactuales.

Michelle M. Li, Kevin Li, Yasha Ektefaie, Ying Jin, Yepeng Huang, Shvat Messica, Tianxi Cai, Marinka Zitnik2026-03-10🤖 cs.LG