When Does RL Help Medical VLMs? Disentangling Vision, SFT, and RL Gains
Este estudo demonstra que o Aprendizado por Reforço (RL) otimiza principalmente a distribuição de saída e a eficiência de amostragem em Modelos Visuais-Linguísticos médicos quando já existe um suporte significativo induzido pelo Ajuste Fino Supervisionado (SFT), propondo uma estratégia de treinamento que combina SFT e RL para alcançar alto desempenho em benchmarks de VQA médica.