FuzzingRL: Reinforcement Fuzz-Testing for Revealing VLM Failures
O artigo apresenta o FuzzingRL, uma abordagem que combina fuzzing e ajuste fino por reforço adversarial para gerar automaticamente perguntas que exploram sistematicamente as vulnerabilidades de Modelos de Linguagem e Visão (VLMs), reduzindo significativamente sua precisão e demonstrando eficácia na transferência entre diferentes modelos.