Induced Numerical Instability: Hidden Costs in Multimodal Large Language Models
Este artigo identifica e valida uma nova vulnerabilidade em modelos de linguagem e visão grandes, demonstrando que a otimização de uma função de perda para induzir instabilidade numérica gera imagens que degradam significativamente o desempenho desses modelos, revelando um vetor de falha distinto das perturbações adversariais tradicionais.