A Survey of OCR Evaluation Methods and Metrics and the Invisibility of Historical Documents

Este estudio revela que las actuales métricas de evaluación de OCR, centradas en documentos modernos y occidentales, ignoran sistemáticamente los desafíos de los periódicos históricos negros, lo que perpetúa su invisibilidad estructural y el daño representativo debido a sesgos institucionales y de gobernanza de datos.

Fitsum Sileshi Beyene, Christopher L. Dancy

Publicado 2026-03-30
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes una máquina increíble capaz de leer cualquier documento escrito en el mundo. Es como un super-lector robot que puede ver una foto de un periódico antiguo y decirte exactamente qué dice. Suena genial, ¿verdad?

Pero, según este estudio, hay un gran problema: este robot está ciego para ciertas historias.

Aquí te explico la idea principal del artículo usando una analogía sencilla:

1. El Robot y sus "Gafas" (Los Datos de Entrenamiento)

Imagina que para enseñar a este robot a leer, le mostramos millones de libros modernos, facturas de empresas y artículos científicos. Le damos "gafas" especiales diseñadas para ver documentos limpios, con letras perfectas y organizados en una sola columna.

El robot aprende muy bien con estas gafas. Si le das un documento moderno, lo lee perfecto. Pero, si le pones un periódico histórico negro de los años 1800 (como The North Star o Freedom's Journal), las cosas se ponen feas.

¿Por qué? Porque esos periódicos antiguos tienen:

  • Letras muy extrañas (como las góticas).
  • Manchas, arrugas y fotos borrosas (porque fueron guardados en microfilm durante décadas).
  • Muchas columnas de texto que se entrelazan de formas complejas para contar historias políticas y sociales.

El robot, con sus "gafas modernas", intenta leer ese periódico antiguo como si fuera un documento moderno. Resultado: Lee las letras sueltas, pero pierde el orden de las columnas, mezcla párrafos que no deberían ir juntos y, a veces, inventa palabras que nunca existieron (alucinaciones).

2. La Prueba de Fuego: ¿Qué mide el examen?

El artículo dice que el problema no es solo que el robot se equivoque, sino cómo le estamos dando la nota.

Actualmente, los científicos le ponen al robot un examen que solo cuenta cuántas letras acertó.

  • Ejemplo: Si el robot lee 100 letras y se equivoca en 2, le ponen un 98%. ¡Excelente nota!

Pero, imagina que ese robot leyó un periódico antiguo y, aunque acertó las 100 letras, cambió el orden de las columnas. Ahora, la noticia sobre la esclavitud aparece mezclada con un anuncio de zapatos.

  • El problema: El examen actual le pone un 98% porque las letras están bien, pero ignora que el significado del documento se ha destruido. Es como si alguien te diera un rompecabezas completo, pero con las piezas en el orden incorrecto; las piezas son correctas, pero la imagen final no tiene sentido.

3. La "Invisibilidad" de las Historias Negras

El estudio se centra en los periódicos históricos de la comunidad negra en EE. UU. Estos documentos son vitales para entender la historia política y social, pero los sistemas de lectura automática (OCR) los tratan como si fueran "ruidosos" o "difíciles".

  • La metáfora: Es como tener una biblioteca donde el bibliotecario (el robot) solo sabe organizar libros de ciencia ficción moderna. Si le das un libro de historia antigua con tapas gastadas y letra difícil, el bibliotecario lo guarda en una caja de "basura" o lo reorganiza de tal manera que ya no se puede entender la historia que cuenta.
  • La consecuencia: Al no poder leer bien estos documentos, las historias de la comunidad negra se vuelven "invisibles" para la inteligencia artificial. La tecnología decide qué historia es legible y cuál no, y actualmente está eligiendo ignorar estas voces importantes.

4. ¿Qué propone el estudio?

Los autores dicen que necesitamos cambiar las reglas del juego:

  1. Entrenar al robot con más variedad: No solo con documentos modernos, sino con esos periódicos antiguos, sucios y complejos.
  2. Cambiar el examen: Ya no basta con contar letras correctas. Necesitamos un examen que pregunte: "¿Entendiste el orden de las columnas? ¿Mantuviste la estructura original? ¿No inventaste nada?".
  3. Reconocer el valor cultural: Entender que leer un documento histórico no es solo transcribir letras, es respetar la cultura y la política que hay detrás de cómo está escrito.

En resumen

Este artículo es una llamada de atención para los creadores de Inteligencia Artificial. Nos dicen: "No basta con que el robot sea rápido y preciso con documentos modernos; si queremos una historia completa, el robot también debe aprender a leer y respetar los documentos antiguos y marginados, incluso si son difíciles de entender."

Si no hacemos esto, corremos el riesgo de que la tecnología borre accidentalmente partes cruciales de nuestra historia humana.