Understanding the Interplay between LLMs' Utilisation of Parametric and Contextual Knowledge: A keynote at ECIR 2025

Esta ponencia de ECIR 2025 explora la interacción entre el conocimiento paramétrico y contextual en los modelos de lenguaje, presentando investigaciones sobre la evaluación de dichos conocimientos, la detección de conflictos internos y externos, y las características que permiten una integración efectiva del contexto.

Isabelle Augenstein

Publicado Wed, 11 Ma
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este artículo es como una charla muy interesante que dio la profesora Isabelle Augenstein en una conferencia de expertos en 2025. Su tema central es: ¿Cómo piensan realmente las Inteligencias Artificiales (IA) cuando les damos información nueva?

Para entenderlo, vamos a usar una analogía sencilla: La IA es como un estudiante muy inteligente, pero un poco terco.

Aquí tienes la explicación paso a paso, traducida a un lenguaje cotidiano:

1. El Estudiante y su "Cerebro" (Conocimiento Paramétrico)

Imagina que entrenamos a este estudiante (la IA) leyendo millones de libros durante años. Todo lo que aprende se queda grabado en su cerebro. A esto los científicos le llaman conocimiento paramétrico.

  • El problema: Si el estudiante aprendió algo incorrecto o viejo (por ejemplo, que la capital de Suecia es Estocolmo... ¡espera, eso es correcto! Pero imagina que aprendió que la capital de Japón es Estocolmo por error), ese error está "quemado" en su cerebro. Es difícil borrarlo sin tener que volver a estudiar todo de nuevo (lo cual es muy caro y lento).

2. El Profesor que le da una Hoja de Apuntes (Conocimiento Contextual)

Ahora, le hacemos una pregunta al estudiante. Para ayudarlo, le damos una hoja de papel con la respuesta correcta (esto es lo que llamamos contexto o RAG - Generación Aumentada por Recuperación).

  • El conflicto: A veces, la hoja de papel dice: "La capital de Japón es Tokio". Pero el estudiante, mirando su propio cerebro, piensa: "No, yo sé que es Estocolmo".
  • La sorpresa: El estudio descubre que, a veces, el estudiante ignora la hoja de papel y sigue usando su memoria vieja y errónea. ¡Es como si el profesor le dijera la respuesta y el alumno dijera: "No, yo sé mejor que tú"!

3. ¿Por qué pasa esto? (Los Conflictos de Memoria)

La profesora explica que hay dos tipos de peleas internas en la IA:

  • Pelea interna (Intra-memory): A veces, el propio cerebro del estudiante está confundido porque leyó cosas contradictorias en sus libros de entrenamiento.
  • Pelea externa (Contexto vs. Memoria): El estudiante se niega a creer lo que le dice la hoja de papel si va en contra de lo que "sabe" de memoria.

Un hallazgo curioso y contraintuitivo:
El estudio descubrió algo raro: A los estudiantes (IA) les cuesta más creer en información nueva cuando el tema es algo que cambia mucho (como el clima o las noticias de hoy). Pero, ¡irónicamente!, son muy fáciles de convencer cuando el tema es algo que nunca cambia (como un dato histórico falso).

  • Analogía: Es como si el estudiante pensara: "Si el clima cambia, debe ser verdad lo que dice el periódico. Pero si me dicen que la capital de Japón es Estocolmo (algo que nunca cambia), ¡mejor ignoro el periódico y me quedo con mi idea fija!".

4. ¿Cómo sabemos qué está pensando el estudiante? (Detectives de IA)

Los investigadores intentaron usar herramientas de "rayos X" (llamadas métodos de atribución) para ver qué neuronas del cerebro se encendían cuando el estudiante respondía.

  • El resultado: Fue difícil. A veces las herramientas decían una cosa y el cerebro hacía otra. Descubrieron que no basta con mirar una parte del cerebro; hay que ver cómo interactúan todas las piezas. Además, probar a ver qué libros específicos le enseñaron a pensar así es como buscar una aguja en un pajar.

5. El mundo real vs. Los simulacros

Hasta ahora, muchos científicos probaban a la IA con datos falsos o simulados (como un examen de práctica).

  • La realidad: La profesora creó un nuevo banco de pruebas con datos reales (como artículos de verificación de noticias de verdad).
  • La lección: En los exámenes de práctica, la IA parecía muy buena usando la hoja de papel. Pero en el mundo real, con textos largos y complejos, la IA a menudo se olvida de la hoja de papel o elige la fuente que le parece más "segura" o fácil de entender, aunque sea incorrecta.

Conclusión: ¿Qué nos deja esto?

El mensaje final es que, aunque la IA es increíble, no es un genio infalible. A veces es como un actor que se sabe el guion de memoria y, aunque le digan que hay un error en el guion, sigue actuando igual porque "así lo aprendió".

La profesora cierra diciendo que la investigación científica es como subir una escalera en espiral: a veces parece que volvemos a empezar por el mismo punto, pero en realidad estamos subiendo un poco más alto, con mejores herramientas y entendiendo mejor cómo funciona la mente de estas máquinas.

En resumen:

  • Las IAs tienen una memoria interna fuerte (y a veces terca).
  • A veces ignoran la información nueva si choca con lo que ya "saben".
  • Necesitamos estudiarlas con datos reales, no solo con simulaciones, para entender cuándo fallan y cómo ayudarlas a escuchar mejor a los "profesores" (los datos que les damos).