CaptionFool: Universal Image Captioning Model Attacks
Die Studie stellt CaptionFool vor, einen universellen adversarialen Angriff auf Bildbeschreibungsmodelle, der durch die Manipulation weniger Bildpatches eine hohe Erfolgsrate bei der Erzeugung beliebiger, einschließlich beleidigender, Zielbeschreibungen erzielt und damit kritische Sicherheitslücken in Vision-Sprach-Modellen aufzeigt.