Do Deployment Constraints Make LLMs Hallucinate Citations? An Empirical Study across Four Models and Five Prompting Regimes

Este estudio empírico demuestra que las restricciones de despliegue en cuatro modelos de lenguaje grandes no mejoran la veracidad de las citas académicas, ya que la mayoría de las referencias generadas son inexistente o no verificables, lo que subraya la necesidad imperativa de verificar las citas después de la generación antes de integrarlas en revisiones de literatura o herramientas de ingeniería de software.

Chen Zhao, Yuan Tang, Yitian Qian

Publicado Tue, 10 Ma
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que los Modelos de Lenguaje (como ChatGPT o Claude) son chefs de cocina muy talentosos, pero que nunca han salido de su cocina. Solo han visto recetas en libros antiguos y nunca han ido al mercado a comprar ingredientes reales.

Este estudio es como una inspección de salud que le hicimos a cuatro de estos chefs (dos famosos y caros, dos más nuevos y de código abierto) para ver qué pasa cuando les ponemos reglas estrictas mientras cocinan un plato académico.

Aquí tienes lo que descubrieron, explicado de forma sencilla:

1. El Problema: "Citas Falsas con Rostro Real"

Cuando estos chefs escriben un artículo, a menudo inventan referencias bibliográficas. Es como si un chef te dijera: "Este plato lleva 'Salsa de Trufa de la Montaña Mágica' y la receta está en el libro de 1998".
El problema es que la receta no existe. El libro no tiene esa página, y la trufa no existe. Pero la receta suena tan real, con nombres de autores y años, que engaña a cualquiera que no la verifique. A esto los científicos le llaman "alucinación".

2. El Experimento: Las Reglas del Juego

Los investigadores le pidieron a los chefs que escribieran párrafos académicos bajo cinco situaciones diferentes, como si fueran restricciones en un restaurante:

  • La Normal: "Cocina lo que quieras".
  • La Temporal: "Solo usa recetas de los últimos 5 años".
  • La Encuesta: "Haz un menú muy amplio con muchas categorías".
  • La Confidencial: "No digas que has leído libros de memoria, actúa como si no supieras de dónde sacaste la info".
  • La Combinada: "Haz todo lo anterior a la vez".

3. Los Resultados: ¿Qué pasó en la cocina?

A. Nadie es perfecto (Ni siquiera los mejores)
Incluso los chefs más famosos (los modelos de pago como GPT-4 o Claude) no lograron que más del 47% de sus recetas fueran reales. Es decir, más de la mitad de las referencias que escribieron eran fantasía. Los chefs "gratuitos" (modelos de código abierto) lo hicieron mucho peor, inventando casi todo.

B. La trampa de la "Regla del Tiempo" (La peor situación)
Cuando les dijeron: "Solo usa recetas de los últimos 5 años", los chefs no dejaron de mentir. Al contrario, se volvieron muy buenos en hacer que las mentiras parecieran reales.

  • La analogía: Es como si un chef te dijera: "Aquí tienes una pizza de 2024". La pizza tiene la fecha escrita en la caja, el papel parece nuevo, pero dentro no hay pizza, solo cartón. Cumplieron la regla de la fecha, pero el contenido era falso.

C. La "Zona Gris" (El peligro invisible)
Un 36% al 61% de las referencias cayeron en una categoría llamada "Sin Resolver".

  • La analogía: Imagina que el inspector revisa la receta y dice: "No puedo confirmar si esta trufa existe, pero tampoco puedo probar que no existe".
  • El peligro: Cuando los investigadores revisaron estas "dudas" a mano, descubrieron que casi la mitad eran mentiras puras. Es decir, el sistema automático no pudo detectarlas, pero eran falsas. Si confías solo en la máquina, te comerás la mentira.

D. Los Chefs Caros vs. Los Chefs Gratuitos
Los modelos de pago (proprietarios) siempre lo hicieron mejor que los gratuitos, pero ninguno fue confiable. Sin embargo, la brecha se hizo enorme cuando pidieron "encuestas amplias". Los modelos gratuitos empezaron a inventar referencias a un ritmo alarmante (más del 50% de sus citas eran falsas).

4. ¿Por qué ocurre esto? (Los trucos de los chefs)

Los investigadores encontraron patrones curiosos en cómo inventaban:

  • Limpieza de lugares: Inventaron un nombre de revista famoso (como "IEEE") pero con un título de artículo que nunca existió allí.
  • Mezcla de autores: Tomaron apellidos reales de científicos famosos y los mezclaron para crear un equipo que nunca existió.
  • Títulos que casi suenan: Escribieron títulos que eran casi idénticos a los reales, pero con un cambio pequeño que hacía que la búsqueda fallara.

5. La Lección para Nosotros (El mensaje final)

Este estudio nos dice algo muy importante para el futuro:

  1. No confíes ciegamente: Si usas una IA para escribir un trabajo, un informe técnico o una tesis, no puedes confiar en sus referencias.
  2. La forma no es el fondo: Que una cita tenga un formato perfecto (con DOI, año, autores) no significa que sea real. Es como un billete falso con un diseño perfecto: si no lo verificas, no sabes que es falso.
  3. La solución: Necesitamos herramientas que verifiquen las citas después de que la IA las escribe, como un inspector de calidad que revisa cada ingrediente antes de servir el plato.

En resumen: Las IA son excelentes redactores, pero son malos bibliotecarios. Si las usas para investigar, úsalas para escribir, pero siempre, siempre, verifica tú mismo si los libros y artículos que citan realmente existen.