Can Large Language Models Derive New Knowledge? A Dynamic Benchmark for Biological Knowledge Discovery

Este trabajo presenta DBench-Bio, un marco de referencia dinámico y automatizado que evalúa la capacidad de los modelos de lenguaje grandes para descubrir nuevo conocimiento biológico, superando las limitaciones de los conjuntos de datos estáticos mediante un proceso de actualización mensual basado en literatura científica rigurosa.

Chaoqun Yang, Xinyu Lin, Shulin Li, Wenjie Wang, Ruihan Guo, Fuli Feng, Tat-Seng Chua

Publicado 2026-03-05
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que los Modelos de Lenguaje Grande (como los "cerebros" de IA que usamos hoy) son como estudiantes universitarios prodigiosos que han leído casi todos los libros de la biblioteca hasta la fecha de su graduación.

El problema es: ¿Qué pasa si les hacemos un examen sobre un libro que acaba de publicarse ayer?

Aquí te explico la investigación de este paper, DBench-Bio, usando una analogía sencilla:

1. El Problema: El examen "trampa"

Hasta ahora, para ver si una IA es inteligente en ciencia, le hacíamos preguntas basadas en libros viejos. Pero hay un gran fallo: es muy probable que la IA ya haya "leído" esas respuestas durante su entrenamiento.

  • La analogía: Es como si le preguntaras a un estudiante de medicina: "¿Cuál es el tratamiento para la gripe?". Si el estudiante memorizó el libro de texto, te dará la respuesta correcta, pero no significa que sea un médico brillante; solo significa que tiene buena memoria. No está descubriendo nada nuevo, solo recordando.

2. La Solución: El "Examen en Vivo" (DBench-Bio)

Los autores crearon un nuevo sistema llamado DBench-Bio. Imagina que en lugar de usar un libro de texto fijo, tienen un robot periodista que trabaja 24/7.

Este robot hace tres cosas (como una línea de montaje):

  1. Caza noticias frescas: Busca los artículos científicos más recientes y de mayor calidad (como los mejores periódicos del mundo) que se publicaron después de que la IA terminó de estudiar.
  2. Crea preguntas de examen: El robot lee esos artículos nuevos y escribe preguntas difíciles tipo: "¿Cómo funciona exactamente esta nueva molécula que acaban de descubrir?".
  3. Filtra la basura: Otro robot revisa las preguntas para asegurarse de que sean claras, importantes y no sean tonterías.

El resultado: Un examen que se actualiza cada mes. Es imposible que la IA haya visto las respuestas antes, porque las respuestas ni siquiera existían cuando la IA estaba "estudiando".

3. Los Resultados: La IA se queda en blanco

Cuando pusieron a los mejores modelos de IA (como GPT-5, Gemini, etc.) a pasar este examen en vivo, pasó algo sorprendente:

  • Memoria vs. Descubrimiento: Las IAs son geniales recordando lo que ya saben (sacaron notas altas en exámenes antiguos), pero se les hizo muy difícil descubrir cosas nuevas.
  • El caso de la biología matemática: Fue donde más fallaron. Es como si un estudiante fuera un genio de la historia, pero cuando le piden resolver un problema de física cuántica nuevo, se bloquea.
  • Las herramientas no son magia: Incluso cuando les dieron acceso a buscar en internet (como una "calculadora" o "biblioteca"), no les ayudó mucho. ¿Por qué? Porque la información que encontraron ya estaba en su memoria interna, o no supieron cómo usarla para inventar una conclusión nueva.

4. ¿Por qué fallan? (Los 4 errores típicos)

El paper analiza cómo fallan las IAs y lo compara con errores humanos:

  1. El "Adivinador" (Error de mecanismo): La IA inventa una explicación que suena lógica y científica, pero es totalmente falsa. Es como un estudiante que no sabe la respuesta y empieza a inventar una historia con palabras raras para que suene bien.
  2. El "Generalista" (Sustitución genérica): En lugar de dar el detalle específico del nuevo descubrimiento, la IA da una respuesta de libro de texto genérica.
    • Ejemplo: Si el artículo dice que una proteína específica bloquea un gen concreto, la IA dice: "Bueno, las proteínas suelen bloquear genes". ¡Correcto, pero inútil!
  3. El "Cobarde" (Rechazo a responder): La IA dice: "No lo sé, no puedo responder". Es honesto, pero no ayuda a descubrir nada nuevo.
  4. El "Confiado en exceso": La IA ignora las herramientas de búsqueda, confía ciegamente en lo que "cree" saber y da una respuesta segura pero falsa.

5. La Conclusión: No basta con leer más

La lección principal de este paper es que hacer la IA más grande o darle más datos de entrenamiento no la hará mejor descubriendo cosas nuevas.

  • La analogía final: Tener una biblioteca infinita no te convierte en un inventor. Para inventar, necesitas un tipo diferente de "cerebro" que pueda conectar puntos que nunca antes se habían conectado, no solo recordar lo que ya está escrito.

En resumen: Los autores crearon un "laboratorio de pruebas" que se actualiza solo para ver si las IAs pueden ser verdaderos científicos o solo son excelentes bibliotecarios. Por ahora, son bibliotecarios excepcionales, pero aún les falta mucho para ser científicos que descubran nuevos mundos.