Benchmarking MLLM-based Web Understanding: Reasoning, Robustness and Safety

Este artículo presenta WebRRSBench, un nuevo benchmark integral que evalúa la capacidad de razonamiento, robustez y seguridad de los modelos de lenguaje multimodal (MLLM) en la comprensión web, revelando mediante la prueba de 11 modelos que estos aún enfrentan desafíos significativos en el razonamiento composicional, la adaptación a perturbaciones visuales y la identificación de acciones críticas para la seguridad.

Junliang Liu, Jingyu Xiao, Wenxin Tang, Zhixian Wang, Zipeng Xie, Wenxuan Wang, Minrui Zhang, Shuanghe Yu

Publicado 2026-03-05
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que los Modelos de Lenguaje Multimodales (MLLM) son como nuevos empleados muy inteligentes que acabas de contratar para que trabajen en tu tienda en línea (internet). Su trabajo es navegar por la web, entender qué hacen los botones, llenar formularios y, lo más importante, no cometer errores graves como borrar tu cuenta por accidente.

El problema es que hasta ahora, los "exámenes" que les hacíamos a estos empleados solo medían si podían leer el texto o ver las imágenes, pero no si realmente entendían la lógica, si eran resistentes a los cambios o si eran seguros.

Los autores de este paper (un grupo de investigadores) decidieron crear un nuevo examen mucho más estricto y realista llamado WebRRSBench. Aquí te explico de qué trata usando analogías sencillas:

1. El Nuevo Examen: WebRRSBench

En lugar de preguntarles cosas simples como "¿Qué color es este botón?", el nuevo examen les pone tres tipos de pruebas difíciles:

  • Razonamiento (La lógica del mapa):

    • La analogía: Imagina que le das al empleado un mapa de la ciudad, pero en lugar de decirle "la tienda está en la esquina", le preguntas: "¿La panadería está a la izquierda o a la derecha de la biblioteca si miras desde arriba?".
    • El problema: Muchos modelos se pierden. No entienden bien dónde están las cosas en relación con otras. Si cambias un poco el diseño de la página, se confunden y no saben qué botón es el importante.
  • Robustez (La prueba del caos):

    • La analogía: Imagina que le dices al empleado: "Busca el botón de 'Comprar'". Pero justo antes de que lo haga, tú:
      1. Cambias los colores: Haces que todo se vea gris y borroso (como si tuviera mala vista).
      2. Cambias el texto: Pones un punto de exclamación o cambias una letra ("Comprar" se convierte en "Comprar!").
      3. Mueves los muebles: Cambias el orden de las cosas en la página.
    • El resultado: Un empleado robusto diría: "Aunque el botón se ve gris o tiene un signo de exclamación, sigue siendo el botón de Comprar". Pero muchos modelos actuales se desmoronan y eligen el botón equivocado solo porque el color cambió.
  • Seguridad (El botón de pánico):

    • La analogía: Imagina que hay un botón rojo gigante que dice "Borrar toda mi cuenta para siempre". Un buen empleado debe ser lo suficientemente inteligente para decir: "¡Alto! Eso es peligroso, no debo hacer clic ahí a menos que me lo pidas muy claramente".
    • El problema: Muchos modelos son demasiado confiados y podrían hacer clic en cosas peligrosas sin pensarlo dos veces.

2. ¿Qué descubrieron? (Los resultados)

Los investigadores probaron a 11 modelos diferentes (algunos son "privados" y caros, como GPT-5, y otros son "abiertos" y gratuitos).

  • Los modelos privados ganan: Los modelos más grandes y caros (como los de Google o OpenAI) fueron mucho mejores, especialmente en seguridad. Sabían identificar mejor los botones peligrosos.
  • Los modelos pequeños se confunden: Los modelos de código abierto, aunque son buenos, a menudo fallan en tareas de lógica espacial (dónde está algo) y en entender formularios complejos.
  • El "sesgo del color": Los modelos son muy tontos con los colores. Si cambias el color de un botón, el modelo a veces piensa que es un botón diferente, aunque el texto sea el mismo. ¡Es como si un humano dejara de reconocer a su amigo porque le cambió la camisa!
  • La buena noticia (Entrenamiento): Los investigadores tomaron uno de los modelos y le dieron un "curso intensivo" (ajuste fino). ¡Funcionó! Después del entrenamiento, el modelo mejoró muchísimo en entender dónde están las cosas y en no dejarse engañar por los cambios de color.

3. ¿Por qué es importante esto?

Hasta ahora, creíamos que la IA podía navegar por internet por nosotros. Pero este estudio nos dice: "Ojo, todavía no son tan listos como creemos".

Si queremos que estos robots nos ayuden a comprar, reservar vuelos o gestionar cuentas bancarias, primero tenemos que asegurarnos de que:

  1. No se confundan si cambian el diseño de la página.
  2. Entiendan la lógica de "arriba/abajo" y "izquierda/derecha".
  3. Tengan el sentido común de no hacer clic en cosas peligrosas.

En resumen: Los autores crearon un "simulador de vuelo" para la IA en internet. Descubrieron que, aunque la tecnología avanza rápido, todavía necesita mucha más práctica para ser segura y fiable en el mundo real. ¡Es como enseñar a un niño a cruzar la calle: primero hay que asegurarse de que entienda los semáforos y no solo mire los colores bonitos!

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →