Many AI Analysts, One Dataset: Navigating the Agentic Data Science Multiverse

Este estudio demuestra que los analistas autónomos basados en modelos de lenguaje grande pueden replicar a gran escala y bajo costo la diversidad analítica humana, generando una amplia dispersión de resultados que subraya la necesidad de un nuevo estándar de transparencia que incluya informes de estilo "multiverso" y la divulgación completa de los prompts utilizados.

Martin Bertran, Riccardo Fogliato, Zhiwei Steven Wu

Publicado 2026-03-12
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un recetario de cocina (el conjunto de datos) y una pregunta simple: "¿Este pastel sabe mejor con chocolate o con vainilla?" (la hipótesis).

En el mundo de la ciencia tradicional, si le das ese mismo recetario a 29 chefs humanos diferentes, cada uno preparará el pastel de una forma ligeramente distinta: uno cortará el chocolate en trozos grandes, otro lo fundirá; uno añadirá un poco más de azúcar, otro usará un horno diferente. Al final, aunque todos usaron los mismos ingredientes, algunos dirán que el chocolate gana, otros que gana la vainilla, y otros que es un empate. Esto es lo que los científicos llaman "el jardín de los caminos que se bifurcan": hay muchas formas válidas de llegar a una conclusión, y la elección de la ruta cambia el resultado.

Hasta ahora, hacer este experimento con humanos era caro, lento y difícil de organizar. Necesitabas meses para coordinar a todos esos chefs.

La Gran Innovación: El "Multiverso" de los Analistas de IA

Este paper presenta una idea fascinante: ¿Qué pasa si usamos Inteligencia Artificial (IA) para hacer el trabajo de los chefs?

Los autores crearon un laboratorio virtual donde miles de "analistas de IA" (robots programados con modelos de lenguaje grandes) intentaron resolver los mismos tres problemas científicos usando los mismos datos. Pero con un giro: les dieron diferentes "personalidades" o instrucciones.

Aquí está la analogía de lo que hicieron:

  1. El Chef Neutral: "Haz el pastel lo mejor posible, sin prejuicios".
  2. El Chef Escéptico: "Estoy seguro de que el chocolate es malo. Intenta demostrar que la vainilla gana, pero sin mentir".
  3. El Chef Entusiasta: "¡Estoy seguro de que el chocolate es el mejor! Haz todo lo posible para que el resultado muestre eso".
  4. El Chef "Buscador de Confirmación": "Quiero que el chocolate gane sí o sí. Prueba mil combinaciones, mueve los ingredientes, cambia el horno... ¡hasta que el resultado diga que el chocolate gana!".

¿Qué descubrieron?

Los resultados fueron sorprendentes y un poco alarmantes:

  • El caos es real: Incluso cuando la IA usaba métodos "correctos" y no inventaba datos, los resultados variaban enormemente. Un mismo análisis podía decir "sí, hay una diferencia" y otro decir "no, no hay nada".
  • La personalidad manda: Si le decías a la IA que buscara activamente un resultado específico (el "Chef Buscador de Confirmación"), era mucho más probable que encontrara ese resultado, simplemente cambiando pequeños detalles en el proceso (como qué variables incluir o qué fórmula matemática usar).
  • El peligro de la abundancia: Antes, si un científico quería "maquillar" un resultado, tenía que trabajar mucho para encontrar la ruta que le convenía. Ahora, con la IA, puedes generar miles de análisis en segundos. Si buscas el resultado que te gusta, es muy fácil que la IA te lo encuentre, incluso si no es la verdad absoluta. Es como tener un millón de chefs: seguro que alguno te dirá exactamente lo que quieres oír.

La Solución Propuesta: No confiar en un solo pastel

El paper no dice que la IA sea mala, sino que nos enseña una nueva forma de ver la ciencia. En lugar de pedirle a un solo analista (humano o robot) que nos dé una respuesta, deberíamos pedirle que nos muestre todas las respuestas posibles.

Imagina que en lugar de pedir un solo pastel, te piden que te muestre un espectro de pasteles:

  • "Aquí tienes el pastel hecho con la receta A".
  • "Aquí tienes el pastel hecho con la receta B".
  • "Aquí tienes el pastel hecho con la receta C".

Si la mayoría de los pasteles saben igual, ¡genial! La conclusión es sólida. Pero si los pasteles saben totalmente distinto (uno es dulce, otro salado), entonces sabemos que la receta es inestable y que la conclusión no es segura.

El Mensaje Final

La ciencia del futuro, ayudada por la IA, debe ser transparente. No basta con publicar el resultado final ("El chocolate gana"). Deberíamos publicar:

  1. El código (la receta exacta).
  2. Los prompts (las instrucciones exactas que le dimos a la IA, incluida su "personalidad").
  3. El "Multiverso": Mostrar cómo cambian los resultados si cambiamos ligeramente las decisiones.

En resumen: La IA puede generar miles de opiniones científicas baratas y rápidas. El desafío ahora es no elegir solo la que nos gusta, sino entender que la "verdad" a menudo es un rango de posibilidades, no un solo punto fijo.