MathScape: Benchmarking Multimodal Large Language Models in Real-World Mathematical Contexts

El artículo presenta MathScape, un nuevo benchmark que evalúa la capacidad de razonamiento matemático de los modelos de lenguaje multimodal en contextos reales mediante imágenes capturadas por humanos, revelando que incluso los modelos más avanzados tienen dificultades significativas en estas tareas y que el rendimiento en datos sintéticos no garantiza éxito en escenarios del mundo real.

Hao Liang, Linzhuang Sun, Minxuan Zhou, Zirong Chen, Meiyi Qiang, Mingan Lin, Tianpeng Li, Fan Yang, Zenan Zhou, Wentao Zhang

Publicado 2026-02-24
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que has entrenado a un genio matemático (una Inteligencia Artificial) para resolver problemas usando solo libros de texto perfectos, con letras nítidas, gráficos limpios y sin ninguna mancha de café. Este genio saca notas perfectas en sus exámenes de práctica.

Pero, ¿qué pasa si le pones ese mismo genio frente a una foto real? Una foto tomada con el móvil, donde la hoja de papel está arrugada, la luz es mala, hay sombras y la escritura a mano del profesor es un poco temblorosa.

Ese es el problema que resuelve este paper.

Aquí tienes la explicación de "MathScape" usando analogías sencillas:

1. El Problema: El "Gimnasio de Cristal" vs. La "Calle Real"

Hasta ahora, las pruebas para medir la inteligencia matemática de las IAs (como MathVista o MathVerse) eran como un gimnasio de cristal: todo estaba perfecto, iluminado y controlado. Las IAs aprendían a resolver problemas matemáticos viendo imágenes digitales generadas por computadora.

El problema es que en la vida real, la gente no saca fotos de pantallas perfectas. Sacan fotos de:

  • Libros viejos.
  • Pizarras con tiza.
  • Hojas arrugadas en el bolsillo.
  • Pantallas con reflejos.

Las IAs actuales, aunque son muy inteligentes, se desmoronan cuando ven estas fotos "sucias" o reales. No saben cómo interpretar el mundo tal como es, solo tal como les enseñaron en el gimnasio de cristal.

2. La Solución: MathScape (El "Mapa del Mundo Real")

Los autores crearon MathScape, que es como un mapa de obstáculos reales para estas IAs.

  • ¿Qué es? Es un banco de 1,369 problemas matemáticos reales.
  • ¿Cómo lo hicieron? No generaron imágenes por computadora. En su lugar, tomaron documentos reales (de primaria, secundaria y universidad), los convirtieron en PDFs y luego... los fotografiaron.
    • La analogía: Imagina que en lugar de darte un mapa digital perfecto de una ciudad, te dan una foto borrosa tomada por un turista que caminó por la ciudad. Tienes que encontrar la dirección basándote en esa foto imperfecta.
  • El proceso: Contrataron a expertos humanos (estudiantes de posgrado en matemáticas) para revisar cada foto y cada respuesta, asegurándose de que el "mapa" fuera correcto y difícil.

3. La Prueba: ¿Quién sobrevive?

Pusieron a prueba a los "atletas" más fuertes del mundo de la IA (modelos como GPT-4o, Claude, Qwen, etc.) contra este nuevo mapa de obstáculos.

Los resultados fueron sorprendentes:

  • El genio de cristal: Cuando las IAs resolvían los problemas con imágenes digitales perfectas (como un PDF limpio), lo hacían bastante bien.
  • El genio en la calle: Cuando les mostraron las fotos reales (con sombras, mala luz, papel arrugado), sus puntuaciones cayeron en picada.
  • La comparación: Incluso los modelos más avanzados (como GPT-4o) obtuvieron peores resultados en las fotos reales que en los PDFs limpios.

La moraleja: Que una IA sea un genio resolviendo ecuaciones en una pantalla perfecta no significa que pueda ayudarte a resolver un problema matemático si le tomas una foto con el móvil en la cocina.

4. ¿Por qué es importante esto?

El paper nos dice que estamos siendo demasiado optimistas con la IA. Creemos que son genios porque aprueban exámenes teóricos, pero no son lo suficientemente robustos para el mundo real.

  • La estabilidad: Incluso cuando las IAs acertaban, no lo hacían siempre. Si les preguntabas lo mismo 5 veces, a veces acertaban y a veces fallaban. Son como un estudiante nervioso que a veces tiene suerte y a veces se pone a pensar demasiado.
  • El futuro: Para que la IA sea realmente útil en la educación o en la vida diaria, necesitamos entrenarla con "fotos reales", no solo con "imágenes perfectas". MathScape es la herramienta para medir si hemos logrado eso.

En resumen

MathScape es como poner a un nadador olímpico (la IA) en una piscina olímpica perfecta y luego pedirle que nade en el mar con olas, algas y basura flotando. El paper demuestra que, aunque son excelentes nadadores en la piscina, todavía tienen mucho que aprender para sobrevivir en el mar real.

Este trabajo es una llamada de atención para los creadores de IA: "Dejen de entrenar solo en condiciones perfectas; el mundo real es desordenado y sus modelos necesitan aprender a navegar en él".

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →