Radial Müntz-Szász Networks: Neural Architectures with Learnable Power Bases for Multidimensional Singularities

El artículo presenta las Redes Radiales de Müntz-Szász (RMN), una arquitectura neuronal con bases de potencia radiales aprendibles que modelan con alta precisión y eficiencia campos singulares multidimensionales, superando significativamente a las redes neuronales tradicionales en términos de error y número de parámetros.

Gnankan Landry Regis N'guessan, Bum Jun Kim2026-03-10🤖 cs.LG

SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning

El artículo presenta SDFed, un marco de aprendizaje federado heterogéneo que mejora la adaptación de modelos visión-idioma mediante prompts globales fijos y locales variables, utilizando refinamiento de subespacio y control de divergencia para resolver las discrepancias entre datos locales y globales en entornos con recursos limitados.

Yicheng Di, Wei Yuan, Tieke He, Yuan Liu, Hongzhi Yin2026-03-10🤖 cs.LG

Retrieval Pivot Attacks in Hybrid RAG: Measuring and Mitigating Amplified Leakage from Vector Seeds to Graph Expansion

Este artículo identifica y cuantifica el riesgo de "Retrieval Pivot" en los sistemas híbridos RAG, donde la combinación de búsqueda vectorial y expansión de grafos permite filtraciones de datos entre inquilinos sin necesidad de inyección maliciosa, demostrando que aplicar controles de autorización en el límite de expansión del grafos mitiga eficazmente estas fugas con un mínimo sobrecosto.

Scott Thornton2026-03-10🤖 cs.LG

Diffusion-Guided Pretraining for Brain Graph Foundation Models

Este trabajo propone un marco unificado de preentrenamiento basado en difusión para modelos fundamentales de grafos cerebrales que supera las limitaciones de los métodos existentes al guiar estrategias de enmascaramiento y reconstrucción que preservan los patrones de conectividad semántica y capturan información estructural global, logrando mejoras consistentes en múltiples conjuntos de datos neuroimagenarios.

Xinxu Wei, Rong Zhou, Lifang He, Yu Zhang2026-03-10🤖 cs.LG

Discovering Semantic Latent Structures in Psychological Scales: A Response-Free Pathway to Efficient Simplification

Este artículo presenta un marco de modelado de temas que utiliza la estructura semántica de los ítems mediante embeddings contextuales y agrupamiento para simplificar escalas psicológicas sin necesidad de datos de respuesta, logrando una reducción del 60,5% en la longitud de las escalas mientras se mantiene la validez psicométrica y la coherencia estructural.

Bo Wang, Yuxuan Zhang, Yueqin Hu, Hanchao Hou, Kaiping Peng, Shiguang Ni2026-03-10🤖 cs.LG

TrasMuon: Trust-Region Adaptive Scaling for Orthogonalized Momentum Optimizers

El artículo presenta TrasMuon, un optimizador que mejora la estabilidad y velocidad de convergencia de los métodos Muon al preservar su geometría ortogonalizada mientras introduce una calibración global y un recorte de región de confianza basado en la energía para mitigar la sensibilidad a la magnitud de los pasos y los picos de alta energía.

Peng Cheng, Jiucheng Zang, Qingnan Li, Liheng Ma, Yufei Cui, Yingxue Zhang, Boxing Chen, Ming Jian, Wen Tong2026-03-10🤖 cs.LG

Mean Flow Policy with Instantaneous Velocity Constraint for One-step Action Generation

Este trabajo presenta la Política de Velocidad Media (MVP), un nuevo método de política generativa que, mediante una restricción de velocidad instantánea, logra la generación de acciones en un solo paso con alta expresividad y velocidad, superando el estado del arte en tareas de manipulación robótica.

Guojian Zhan, Letian Tao, Pengcheng Wang, Yixiao Wang, Yiheng Li, Yuxin Chen, Hongyang Li, Masayoshi Tomizuka, Shengbo Eben Li2026-03-10🤖 cs.LG

Why Code, Why Now: Learnability, Computability, and the Real Limits of Machine Learning

Este artículo propone una jerarquía de cinco niveles de aprendibilidad basada en la estructura de la información para explicar por qué la generación de código escala de manera predecible gracias a su retroalimentación densa y verificable, mientras que el aprendizaje por refuerzo enfrenta límites fundamentales que no se resuelven simplemente aumentando el tamaño de los modelos.

Zhimin Zhao2026-03-10🤖 cs.LG

LongAudio-RAG: Event-Grounded Question Answering over Multi-Hour Long Audio

El artículo presenta LongAudio-RAG, un marco híbrido que mejora la respuesta a preguntas sobre audios de larga duración al fundamentar las respuestas de los modelos de lenguaje en eventos acústicos recuperados de una base de datos SQL, permitiendo un despliegue eficiente en entornos edge-cloud con alta precisión y baja alucinación.

Naveen Vakada, Kartik Hegde, Arvind Krishna Sridhar, Yinyi Guo, Erik Visser2026-03-10🤖 cs.LG

Accelerated Predictive Coding Networks via Direct Kolen-Pollack Feedback Alignment

El artículo presenta DKP-PC, un algoritmo de codificación predictiva que utiliza conexiones de retroalimentación directa aprendibles para eliminar la dependencia de la profundidad en la propagación de errores y mitigar el desvanecimiento de las actualizaciones, logrando así una mayor eficiencia y rendimiento sin sacrificar la localidad de las actualizaciones.

Davide Casnici, Martin Lefebvre, Justin Dauwels, Charlotte Frenkel2026-03-10🤖 cs.LG

On the Power of Source Screening for Learning Shared Feature Extractors

Este artículo demuestra que, en el aprendizaje de extractores de características compartidos, la selección cuidadosa de un subconjunto de fuentes de datos informativas puede lograr la optimalidad minimax en la estimación del subespacio, incluso descartando una parte sustancial de los datos, y propone algoritmos y heurísticas prácticas para identificar dichas fuentes.

Leo Muxing Wang, Connor Mclaughlin, Lili Su2026-03-10🤖 cs.LG

Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection

El artículo presenta EC-Net, un marco de hipergrafos hiperbólicos que utiliza incrustaciones en la bola de Poincaré y aprendizaje contrastivo para mejorar la recuperación de sentimientos y la comprensión multimodal de emociones, logrando mayor precisión y robustez ante ruido o datos faltantes.

Rong Fu, Ziming Wang, Shuo Yin, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon Fong2026-03-10🤖 cs.LG

ModalImmune: Immunity Driven Unlearning via Self Destructive Training

El artículo presenta ModalImmune, un marco de entrenamiento que fortalece la inmunidad de los sistemas multimodales ante la pérdida o corrupción de canales de entrada mediante el colapso controlado de información modal durante el entrenamiento, logrando así representaciones conjuntas más robustas sin comprometer la estabilidad de la convergencia ni la capacidad de reconstrucción.

Rong Fu, Jia Yee Tan, Zijian Zhang, Ziming Wang, Zhaolu Kang, Muge Qi, Shuning Zhang, Simon Fong2026-03-10🤖 cs.LG

Latent Equivariant Operators for Robust Object Recognition: Promise and Challenges

Este artículo presenta arquitecturas que aprenden operadores equivariantes en un espacio latente para mejorar el reconocimiento de objetos ante transformaciones simétricas no vistas durante el entrenamiento, demostrando su eficacia en conjuntos de datos simples como MNIST ruidoso y rotado, aunque advierte sobre los desafíos de escalar estas soluciones a conjuntos de datos más complejos.

Minh Dinh, Stéphane Deny2026-03-10🤖 cs.LG