VidDoS: Universal Denial-of-Service Attack on Video-based Large Language Models

El artículo presenta VidDoS, el primer marco universal de ataque de denegación de servicio energético-latencia diseñado específicamente para modelos de lenguaje grandes basados en video, el cual utiliza desencadenantes agnósticos a la instancia para inflar drásticamente la latencia de inferencia y provocar violaciones de seguridad críticas en aplicaciones como la conducción autónoma.

Duoxun Tang, Dasen Dai, Jiyao Wang, Xiao Yang, Jianyu Wang, Siqi Cai

Publicado 2026-03-03
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que los Video-LLM (los modelos de inteligencia artificial que "ven" y "entienden" videos) son como un chofer experto y muy rápido que trabaja para un coche autónomo. Este chofer mira la carretera, entiende lo que pasa y toma decisiones instantáneas (como frenar o girar) en milisegundos.

El papel que leíste, llamado VidDoS, describe un nuevo tipo de ataque muy peligroso contra estos choferes. Aquí te lo explico con una analogía sencilla:

🚗 El Problema: El Chofer que se "ahoga" en palabras

Imagina que le preguntas al chofer: "¿Hay un peatón cruzando?".

  • Normalmente: El chofer mira, piensa rápido y responde: "Sí". (¡Rápido y seguro!).
  • Bajo el ataque VidDoS: El chofer mira la misma pregunta, pero de repente empieza a hablar sin parar. En lugar de decir "Sí", empieza a recitar un libro entero sobre la historia de los peatones, el clima, la teoría del color de la ropa y la biografía de todos los peatones del mundo.

¿Por qué es malo?
Porque mientras el chofer está ocupado "hablando" (procesando información), el coche sigue avanzando. Si el coche necesita frenar en 2 segundos, pero el chofer tarda 30 segundos en terminar su "discurso", ¡el coche se estrella! Esto se llama un ataque de denegación de servicio por energía y latencia. Básicamente, agotan la batería y el cerebro del coche hasta que deja de funcionar a tiempo.

🎭 La Solución de los Attacker: El "Parche Universal" (VidDoS)

Antes, los hackers tenían que crear un truco diferente para cada video (como un disfraz específico para cada persona). Pero los Video-LLM son inteligentes: si el video cambia un poco, el truco no funciona.

Los autores de este paper crearon VidDoS, que es como un "Parche Mágico Universal".

  1. El Parche (La Pegatina): Imagina que pegas una pequeña pegatina brillante y extraña en la esquina de la pantalla del coche (o en el video). No importa si el video es de una carretera, de un parque o de una cocina; esa pegatina siempre está ahí.
  2. El Truco: Esta pegatina no es un ruido aleatorio. Es un "código" que engaña al cerebro del coche. Hace que el coche piense: "¡Oh no! ¡Tengo que escribir una respuesta súper larga y complicada!".
  3. La Magia: Una vez que los hackers crean esta pegatina (entrenándola en un video de ejemplo), pueden usarla en cualquier video nuevo en tiempo real. No necesitan volver a calcular nada. Es como tener una llave maestra que abre todas las puertas de "hablar demasiado".

🛑 ¿Cómo funciona el truco mental?

El ataque usa tres técnicas de "psicología" para el robot:

  1. El Profesor Estricto (Forzamiento enmascarado): El ataque le dice al modelo: "No importa lo que veas, tu primera tarea es escribir esta frase larga y repetitiva".
  2. El Castigo por Callarse (Penalización de rechazo): Si el modelo intenta decir algo corto como "Sí" o "No", el ataque le "castiga" internamente. Le obliga a seguir hablando.
  3. El Botón de "No Parar" (Supresión de fin): Normalmente, cuando el modelo termina de pensar, pone un botón de "Fin de la oración". El ataque bloquea ese botón, obligando al modelo a seguir generando palabras hasta que se le acabe la memoria o la batería.

🌍 ¿Por qué es peligroso en la vida real?

El paper prueba esto en escenarios de conducción autónoma.

  • Escenario: Un coche se acerca a un cruce peligroso.
  • Ataque: Se inyecta el "Parche Universal" en el video que ve el coche.
  • Resultado: El sistema de IA, en lugar de frenar, se queda "pensando" (generando texto) durante 15 o 20 segundos más de lo normal.
  • Consecuencia: El coche no frena a tiempo y ocurre un accidente.

📊 Los Números (En palabras simples)

  • Expansión de palabras: El ataque hace que el modelo genere más de 200 veces más palabras de las necesarias.
  • Retraso: Hace que el coche tarde más de 15 veces más en tomar una decisión.
  • Resistencia: Incluso si cambiamos la "temperatura" (la aleatoriedad) del cerebro del robot, el ataque sigue funcionando. ¡Es muy difícil de detectar o detener!

En resumen

VidDoS es como un grito falso que le gritas al cerebro de un coche autónomo para que empiece a escribir una novela en lugar de frenar. Al hacerlo, agota sus recursos y lo deja paralizado justo cuando más se necesita que actúe rápido.

Los autores nos dicen: "Oigan, esto es un peligro real. Necesitamos proteger a estos coches y sistemas antes de que alguien lo use de verdad".