Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification

Este artículo propone tres técnicas de mitigación de sesgo —filtrado top-k, eliminación de conceptos sesgados y desviación adversaria— para mejorar la equidad en los Modelos de Embudo de Conceptos (CBM) sin sacrificar su interpretabilidad, logrando así un mejor equilibrio entre rendimiento y justicia en la clasificación de imágenes.

Schrasing Tong, Antoine Salaun, Vincent Yuan, Annabel Adeyeri, Lalana Kagal2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

El artículo presenta RePO, un nuevo enfoque de optimización que combina aprendizaje por refuerzo con recompensas verificables y guía supervisada basada en referencias para superar las limitaciones de los modelos de lenguaje actuales en la optimización de moléculas, logrando un mejor equilibrio entre la exploración de nuevas estructuras y la explotación de referencias existentes sin necesidad de datos de trayectoria.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

Stock Market Prediction Using Node Transformer Architecture Integrated with BERT Sentiment Analysis

Este artículo presenta un marco integrado que combina una arquitectura de transformador de nodos con análisis de sentimientos basado en BERT para predecir precios de acciones, logrando una mayor precisión y robustez en comparación con modelos tradicionales al capturar dependencias cruzadas y factores de mercado no cuantitativos.

Mohammad Al Ridhawi, Mahtab Haj Ali, Hussein Al Osman2026-03-09🤖 cs.AI

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

Este artículo propone un marco de reescritura de estilo estructurado que combina la descomposición explícita del estilo en dimensiones léxicas, sintácticas y pragmáticas con una estrategia de condicionamiento implícito mediante distilación de Cadena de Pensamiento, permitiendo que modelos de lenguaje pequeños generen personajes con alta fidelidad estilística sin necesidad de tokens de razonamiento durante la inferencia.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Este artículo presenta modelos interpretables que integran rasgos psicológicos individuales y características situacionales inferidas del lenguaje para predecir el bienestar mental, demostrando que un enfoque basado en teorías psicológicas ofrece un rendimiento competitivo y una mayor comprensión humana en comparación con las representaciones de modelos de lenguaje.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

El artículo presenta OMGD, un método de optimización eficiente en memoria basado en la traversa de máscaras que ofrece una complejidad de iteración estrictamente mejorada de O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) en entornos no convexos y demuestra mejoras consistentes en tareas de ajuste fino y preentrenamiento de modelos de lenguaje grandes.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG

Preventing Learning Stagnation in PPO by Scaling to 1 Million Parallel Environments

Este artículo demuestra que el estancamiento del aprendizaje en PPO se debe a que las estimaciones basadas en muestras se vuelven pobres proxies del objetivo real, y propone escalar a más de un millón de entornos paralelos como una solución robusta para reducir el ruido y el tamaño del paso, permitiendo mejoras de rendimiento monótonas hasta un billón de transiciones.

Michael Beukman, Khimya Khetarpal, Zeyu Zheng, Will Dabney, Jakob Foerster, Michael Dennis, Clare Lyle2026-03-09🤖 cs.LG

Agnostic learning in (almost) optimal time via Gaussian surface area

Este trabajo mejora el análisis de Klivans et al. demostrando que un grado de polinomio de O~(Γ2/ε2)\tilde O(\Gamma^2 / \varepsilon^2) es suficiente para la aproximación L1L_1 bajo distribuciones gaussianas, lo que proporciona límites (casi) óptimos para el aprendizaje agnóstico de funciones umbral polinómicas en el modelo de consultas estadísticas.

Lucas Pesenti, Lucas Slot, Manuel Wiedmer2026-03-09🤖 cs.LG

Improved high-dimensional estimation with Langevin dynamics and stochastic weight averaging

Este artículo demuestra que la dinámica de Langevin, combinada con el promediado de iteraciones, puede recuperar una dirección oculta en entornos de alta dimensión con un número de muestras óptimo (ndk/2n \gtrsim d^{k^\star/2}) sin necesidad de un suavizado explícito del paisaje, emulando dicho efecto mediante la inyección de ruido y el promediado.

Stanley Wei, Alex Damian, Jason D. Lee2026-03-09🤖 cs.LG