Exploring Embedding Priors in Prompt-Tuning for Improved Interpretability and Control

Este trabajo investiga el papel del colapso de embeddings en el Prompt-Tuning, demostrando que los priors de embeddings influyen significativamente en la posición de los embeddings ajustados y que las capacidades de generalización de los modelos de lenguaje pueden funcionar en regiones activas diversas y no necesariamente localizadas en un único clúster.

Sergey Sedov, Sumanth Bharadwaj Hachalli Karanam, Venu Gopal Kadamba2026-03-10🤖 cs.LG

From Pixels to Predicates: Learning Symbolic World Models via Pretrained Vision-Language Models

Este trabajo presenta un método que utiliza modelos de visión y lenguaje preentrenados para aprender modelos de mundo simbólicos a partir de demostraciones cortas, permitiendo a los robots generalizar de forma cero-shot y resolver problemas de toma de decisiones a largo plazo en entornos complejos mediante planificación.

Ashay Athalye, Nishanth Kumar, Tom Silver, Yichao Liang, Jiuguang Wang, Tomás Lozano-Pérez, Leslie Pack Kaelbling2026-03-10🤖 cs.LG

UFGraphFR: Graph Federation Recommendation System based on User Text description features

El artículo presenta UFGraphFR, un sistema de recomendación federado que mejora la precisión y la personalización preservando la privacidad al transformar los datos locales en descripciones textuales para construir gráficos de relaciones de usuarios basados en similitud semántica y propagar información mediante redes neuronales gráficas ligeras y arquitecturas Transformer.

Xudong Wang, Qingbo Hao, Yingyuan Xiao2026-03-10🤖 cs.LG

General Coded Computing in a Probabilistic Straggler Regime

Este artículo analiza teóricamente y valida experimentalmente cómo dos esquemas de computación codificada general (BACC y LeTCC) logran que el error de aproximación converja a cero bajo un régimen de servidores lentos probabilístico, demostrando que la independencia en las fallas permite una precisión creciente incluso cuando el número promedio de servidores lentos escala con el tamaño del sistema.

Parsa Moradi, Mohammad Ali Maddah-Ali2026-03-10🤖 cs.LG

Security and Quality in LLM-Generated Code: A Multi-Language, Multi-Model Analysis

Este estudio analiza la seguridad y calidad del código generado por modelos de lenguaje grande (LLM) en múltiples lenguajes, revelando que, aunque automatizan la creación de código, su efectividad varía según el lenguaje y a menudo fallan al adoptar prácticas modernas de seguridad, como las actualizaciones de Java 17 o los métodos seguros en C++.

Mohammed Kharma, Soohyeon Choi, Mohammed AlKhanafseh, David Mohaisen2026-03-10🤖 cs.LG

Controllable Sequence Editing for Biological and Clinical Trajectories

El modelo CLEF introduce un método de edición de secuencias que permite modificar de forma controlada y específica el momento y las variables afectadas en trayectorias biológicas y clínicas, superando significativamente a los métodos existentes en precisión y capacidad de generación de contrafactuales.

Michelle M. Li, Kevin Li, Yasha Ektefaie, Ying Jin, Yepeng Huang, Shvat Messica, Tianxi Cai, Marinka Zitnik2026-03-10🤖 cs.LG

Active Advantage-Aligned Online Reinforcement Learning with Offline Data

El artículo presenta A3RL, un nuevo método de aprendizaje por refuerzo que combina datos en línea y fuera de línea mediante una estrategia de muestreo activa y consciente de la confianza para mejorar la eficiencia de las muestras y superar el olvido catastrófico, logrando un rendimiento superior frente a técnicas existentes.

Xuefeng Liu, Hung T. C. Le, Siyu Chen, Rick Stevens, Zhuoran Yang, Matthew R. Walter, Yuxin Chen2026-03-10🤖 cs.LG

Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative

El artículo propone el marco Texts as Time Series (TaTS), que aprovecha las propiedades periódicas de los textos emparejados con series temporales para mejorar las tareas de predicción e imputación multimodal en modelos numéricos existentes sin necesidad de modificar su arquitectura.

Zihao Li, Xiao Lin, Zhining Liu, Jiaru Zou, Ziwei Wu, Lecheng Zheng, Dongqi Fu, Yada Zhu, Hendrik Hamann, Hanghang Tong, Jingrui He2026-03-10🤖 cs.LG

Go Beyond Your Means: Unlearning with Per-Sample Gradient Orthogonalization

El artículo presenta OrthoGrad, un método novedoso para el olvido de datos que proyecta los gradientes de los datos a eliminar en un subespacio ortogonal a los de un conjunto de retención reducido, logrando así eliminar conceptos específicos sin comprometer el rendimiento del modelo cuando no se dispone del conjunto de entrenamiento completo.

Aviv Shamsian, Eitan Shaar, Aviv Navon, Gal Chechik, Ethan Fetaya2026-03-10🤖 cs.LG

LLM-Powered Prediction of Hyperglycemia and Discovery of Behavioral Treatment Pathways from Wearables and Diet

Este estudio presenta GlucoLens, un sistema de aprendizaje automático explicable que utiliza datos de wearables y dietas para predecir la hiperglucemia postprandial y descubrir vías de tratamiento conductual mediante explicaciones contrafactuales, logrando un rendimiento superior al de los modelos comparativos en un ensayo clínico.

Abdullah Mamun, Asiful Arefeen, Susan B. Racette + 4 more2026-03-10🤖 cs.AI