FuzzingRL: Reinforcement Fuzz-Testing for Revealing VLM Failures
Der Paper stellt „FuzzingRL" vor, eine Methode, die Fuzz-Testing mit verstärkendem Fein-Tuning kombiniert, um automatisch adversarische Fragen zu generieren, die gezielt Schwachstellen in Vision-Language-Modellen aufdecken und deren Antwortgenauigkeit signifikant senken.