MoE Lens -- An Expert Is All You Need

El artículo "MoE Lens" demuestra mediante un análisis sistemático del modelo DeepSeekMoE que la especialización de los expertos en las arquitecturas Mixture of Experts está altamente concentrada en unos pocos dominantes, lo que sugiere que es posible optimizar la inferencia mediante la poda selectiva de expertos sin comprometer significativamente el rendimiento del modelo.

Marmik Chaudhari, Idhant Gulati, Nishkal Hundia, Pranav Karra, Shivam Raval2026-03-09🤖 cs.LG

Margin and Consistency Supervision for Calibrated and Robust Vision Models

El artículo presenta MaCS, un marco de regularización simple y agnóstico a la arquitectura que mejora la calibración y la robustez de los modelos de visión mediante la combinación de una penalización de margen en el espacio de logits y un regularizador de consistencia, logrando mejores garantías teóricas y rendimiento empírico sin requerir datos adicionales ni cambios arquitectónicos.

Salim Khazem2026-03-09🤖 cs.AI

Test-Time Adaptation via Many-Shot Prompting: Benefits, Limits, and Pitfalls

Este estudio evalúa empíricamente la adaptación en tiempo de prueba mediante prompting con muchas muestras en modelos de lenguaje, revelando que aunque es eficaz para tareas estructuradas con alto valor informativo, su utilidad es limitada y sensible a la estrategia de selección en tareas de generación abierta, lo que permite definir sus límites prácticos frente a otras estrategias como el ICL dinámico y reforzado.

Shubhangi Upasani, Chen Wu, Jay Rainton, Bo Li, Changran Hu, Qizheng Zhang, Urmish Thakker2026-03-09🤖 cs.LG

ReflexiCoder: Teaching Large Language Models to Self-Reflect on Generated Code and Self-Correct It via Reinforcement Learning

ReflexiCoder es un nuevo marco de aprendizaje por refuerzo que entrena a modelos de lenguaje grandes para internalizar la capacidad de autocrítica y autocorrección de código de forma autónoma durante la inferencia, logrando un rendimiento de vanguardia en múltiples benchmarks sin depender de oráculos externos ni motores de ejecución.

Juyong Jiang, Jiasi Shen, Sunghun Kim, Kang Min Yoo, Jeonghoon Kim, Sungju Kim2026-03-09🤖 cs.LG

Mitigating Bias in Concept Bottleneck Models for Fair and Interpretable Image Classification

Este artículo propone tres técnicas de mitigación de sesgo —filtrado top-k, eliminación de conceptos sesgados y desviación adversaria— para mejorar la equidad en los Modelos de Embudo de Conceptos (CBM) sin sacrificar su interpretabilidad, logrando así un mejor equilibrio entre rendimiento y justicia en la clasificación de imágenes.

Schrasing Tong, Antoine Salaun, Vincent Yuan, Annabel Adeyeri, Lalana Kagal2026-03-09🤖 cs.LG

Reference-guided Policy Optimization for Molecular Optimization via LLM Reasoning

El artículo presenta RePO, un nuevo enfoque de optimización que combina aprendizaje por refuerzo con recompensas verificables y guía supervisada basada en referencias para superar las limitaciones de los modelos de lenguaje actuales en la optimización de moléculas, logrando un mejor equilibrio entre la exploración de nuevas estructuras y la explotación de referencias existentes sin necesidad de datos de trayectoria.

Xuan Li, Zhanke Zhou, Zongze Li, Jiangchao Yao, Yu Rong, Lu Zhang, Bo Han2026-03-09🤖 cs.AI

Stock Market Prediction Using Node Transformer Architecture Integrated with BERT Sentiment Analysis

Este artículo presenta un marco integrado que combina una arquitectura de transformador de nodos con análisis de sentimientos basado en BERT para predecir precios de acciones, logrando una mayor precisión y robustez en comparación con modelos tradicionales al capturar dependencias cruzadas y factores de mercado no cuantitativos.

Mohammad Al Ridhawi, Mahtab Haj Ali, Hussein Al Osman2026-03-09🤖 cs.AI

Implicit Style Conditioning: A Structured Style-Rewrite Framework for Low-Resource Character Modeling

Este artículo propone un marco de reescritura de estilo estructurado que combina la descomposición explícita del estilo en dimensiones léxicas, sintácticas y pragmáticas con una estrategia de condicionamiento implícito mediante distilación de Cadena de Pensamiento, permitiendo que modelos de lenguaje pequeños generen personajes con alta fidelidad estilística sin necesidad de tokens de razonamiento durante la inferencia.

Chanhui Zhu2026-03-09🤖 cs.LG

Who We Are, Where We Are: Mental Health at the Intersection of Person, Situation, and Large Language Models

Este artículo presenta modelos interpretables que integran rasgos psicológicos individuales y características situacionales inferidas del lenguaje para predecir el bienestar mental, demostrando que un enfoque basado en teorías psicológicas ofrece un rendimiento competitivo y una mayor comprensión humana en comparación con las representaciones de modelos de lenguaje.

Nikita Soni, August Håkan Nilsson, Syeda Mahwish, Vasudha Varadarajan, H. Andrew Schwartz, Ryan L. Boyd2026-03-09🤖 cs.AI

Omni-Masked Gradient Descent: Memory-Efficient Optimization via Mask Traversal with Improved Convergence

El artículo presenta OMGD, un método de optimización eficiente en memoria basado en la traversa de máscaras que ofrece una complejidad de iteración estrictamente mejorada de O~(ϵ3)\tilde{\mathcal{O}}(\epsilon^{-3}) en entornos no convexos y demuestra mejoras consistentes en tareas de ajuste fino y preentrenamiento de modelos de lenguaje grandes.

Hui Yang, Tao Ren, Jinyang Jiang, Wan Tian, Yijie Peng2026-03-09🤖 cs.LG