Learning to Think Fast and Slow for Visual Language Models
El artículo presenta DualMindVLM, un modelo de lenguaje visual que implementa un mecanismo de pensamiento dual (rápido y lento) adaptando el entrenamiento GRPO para asignar dinámicamente la longitud de la respuesta según la complejidad de la tarea, logrando así un rendimiento de razonamiento superior con una mayor eficiencia en el uso de tokens.