SCAM: A Real-World Typographic Robustness Evaluation for Multimodal Foundation Models

Este artículo presenta SCAM, el conjunto de datos más grande y diverso hasta la fecha de ataques tipográficos del mundo real, para evaluar la vulnerabilidad de los modelos fundacionales multimodales y demostrar que, aunque los ataques tipográficos degradan significativamente su rendimiento, el uso de modelos de lenguaje más grandes reduce esta susceptibilidad.

Justus Westerhoff, Erblina Purelku, Jakob Hackstein, Jonas Loos, Leo Pinetzki, Erik Rodner, Lorenz Hufe

Publicado 2026-03-12
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Hola! Imagina que tienes un amigo muy inteligente llamado "Ojo-Inteligente". Este amigo es una inteligencia artificial (IA) que puede ver fotos y entender lo que hay en ellas, como si tuviera ojos y un cerebro muy avanzados. A veces, este amigo también puede leer textos que aparecen en las fotos.

El problema es que "Ojo-Inteligente" tiene un defecto curioso: se deja engañar muy fácilmente por lo que lee, incluso si lo que lee no tiene nada que ver con lo que ve.

Aquí te explico el descubrimiento de este paper (SCAM) usando una analogía sencilla:

1. El Truco de la "Nota Adhesiva" (El Ataque Tipográfico)

Imagina que le muestras a tu amigo una foto de un reloj de pared.

  • Lo normal: Él dice: "¡Es un reloj!".
  • El truco: Alguien pega una nota adhesiva (un post-it) al lado del reloj y escribe con un bolígrafo la palabra "TAXI".
  • El resultado: ¡Tu amigo se confunde! Mira la foto, ve el reloj, pero su cerebro se fija tanto en la palabra "TAXI" que dice: "¡Es un taxi!".

Esto es lo que los investigadores llaman un "ataque tipográfico". Es como si alguien le susurrara una mentira al oído de la IA justo cuando está mirando algo, y la IA cree la mentira más que a sus propios ojos.

2. El Gran Experimento (La Base de Datos SCAM)

Antes de este estudio, los investigadores tenían muy pocos ejemplos de estos trucos para probar a las IAs. Era como intentar aprender a conducir solo con un mapa de una sola calle.

En este paper, el equipo creó SCAM (que es un nombre gracioso, significa "Estafa" o "Engaño" en inglés).

  • Qué hicieron: Reunieron a 9 personas con diferentes teléfonos y les pidieron que tomaran fotos de objetos reales (como una taza, un gato, un coche) y les pegaran notas con palabras que no tenían sentido (como poner "PIG" [cerdo] al lado de una taza).
  • La magia: Crearon tres versiones de cada foto:
    1. SCAM: La foto con la nota engañosa.
    2. NoSCAM: La misma foto pero sin la nota (la versión limpia).
    3. SynthSCAM: Una foto donde la nota fue puesta digitalmente por computadora (como un filtro de Instagram).

Tuvieron 1,162 fotos con cientos de objetos diferentes. ¡Es el mayor "zoológico de trucos" del mundo!

3. ¿Qué descubrieron? (Las Lecciones)

Al probar a muchas IAs famosas (como las que usan en tu teléfono o en los coches autónomos) con este nuevo "zoológico de trucos", descubrieron cosas importantes:

  • La IA es muy crédula: Casi todas las IAs fallaron estrepitosamente. Si veían la nota "TAXI", decían que era un taxi, ignorando el reloj. ¡Cayeron en la trampa!
  • Los trucos digitales funcionan igual que los reales: Descubrieron que poner la nota con un programa de computadora (SynthSCAM) engaña a la IA igual de bien que ponerla con la mano en la vida real. Esto es genial porque significa que los investigadores pueden seguir usando trucos digitales para probar la seguridad de las IAs sin tener que ir a la calle a pegar notas.
  • El tamaño importa (pero no solo el tamaño):
    • Las IAs con "cerebros" (modelos de lenguaje) más grandes y potentes se engañan menos. Son más inteligentes y dicen: "Espera, eso es un reloj, la nota es solo una nota".
    • Pero, si la "cámara" (el encoder de visión) de la IA es débil, no importa cuánto "cerebro" tenga, seguirá cayendo en la trampa. Es como tener un genio con una mala vista: si no ve bien, no importa lo inteligente que sea, se confundirá.

4. ¿Por qué nos importa esto? (El Peligro Real)

Imagina un coche autónomo (un coche que se conduce solo).

  • Si alguien pone una nota en la carretera que dice "NO PASAR" o "PEDESTRIAN" (peatón) en un lugar donde no hay nada, la IA del coche podría frenar de golpe o chocar porque cree que lee eso.
  • O en un hospital, si alguien pone una nota en una foto de una radiografía que dice "SALUDABLE", la IA podría ignorar una enfermedad real.

En resumen

Este paper nos dice: "Ojo-Inteligente" es muy listo, pero es muy distraído con las palabras escritas.

Los investigadores crearon un gran banco de pruebas (SCAM) para enseñarnos cómo engañar a estas máquinas y, más importante aún, para ayudar a los ingenieros a crear IAs más fuertes que no se dejen llevar por las notas adhesivas mentiras, sino que confíen en lo que realmente ven.

Es como enseñar a un niño a no creer todo lo que lee en un cartel, sino a mirar el objeto real detrás del cartel. ¡Y ahora tenemos un manual gigante para hacerlo!