Towards Realistic Personalization: Evaluating Long-Horizon Preference Following in Personalized User-LLM Interactions

Este trabajo presenta RealPref, un nuevo benchmark diseñado para evaluar la capacidad de los modelos de lenguaje grandes para seguir preferencias de usuario a lo largo de interacciones realistas y de largo plazo, revelando que su rendimiento disminuye significativamente a medida que aumenta la longitud del contexto y la expresividad de las preferencias se vuelve más implícita.

Qianyun Guo, Yibo Li, Yue Liu, Bryan Hooi

Publicado 2026-03-05
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

Imagina que tienes un asistente personal de inteligencia artificial (IA) que ha estado contigo durante años. Conoce tus gustos, tus hábitos y hasta las pequeñas cosas que te hacen feliz o te molestan. La promesa es que este asistente sea tan bueno que se sienta como un viejo amigo que te entiende sin que tengas que repetirte.

Pero, ¿realmente funcionan así? ¿O se les olvida lo que dijiste hace tres meses si la conversación fue muy larga?

Los autores de este trabajo, RealPref, decidieron poner a prueba a estas IAs con un "examen de realidad" muy estricto. Aquí te explico cómo lo hicieron, usando analogías sencillas:

1. El Problema: Los exámenes de "silla de ruedas" vs. la vida real

Hasta ahora, la mayoría de los tests para IAs eran como exámenes escolares muy fáciles:

  • Contexto corto: Leían una frase y respondían.
  • Instrucciones claras: "No me gusta el café".
  • Preguntas directas: "¿Qué bebida debo pedir?".

En la vida real, las cosas son mucho más caóticas. Tú no le dices a tu asistente "No me gusta el café". Más bien, en una charla de hace tres meses, mencionaste que te dolía la cabeza después de tomarlo, y en otra charla dijiste que prefieres el té porque te relaja. Además, la conversación puede tener miles de palabras sobre el clima, el trabajo y tus hijos antes de llegar a la pregunta sobre la bebida.

Los tests anteriores no medían si la IA podía recordar esos detalles dispersos en una conversación larga y compleja.

2. La Solución: RealPref (El "Simulador de Vida Real")

Los investigadores crearon un nuevo banco de pruebas llamado RealPref. Imagina que es como un videojuego de simulación de vida donde:

  • 100 Personajes: Crearon 100 "personas" digitales con historias de vida completas (nombres, trabajos, gustos, eventos pasados).
  • 1.300 Gustos Ocultos: Cada personaje tiene preferencias que se revelan de formas diferentes:
    • Directas: "No me gusta el té".
    • Contextuales: "Hoy hace frío, mejor tomo algo caliente... aunque el té me cae mal".
    • Implícitas (Estilo): "Ojalá pudiera estar en un lugar tranquilo, lejos del ruido de las máquinas de café".
    • Implícitas (Experiencia): Durante varias semanas, el usuario comparte historias sobre cómo se sintió después de tomar café, hasta que se deduce que no le gusta.
  • Conversaciones Largas: Las IAs deben leer conversaciones que pueden tener el equivalente a leer varios libros enteros (hasta 247.000 palabras) para encontrar esa pequeña pista sobre lo que el usuario prefiere.

3. El Examen: ¿Qué pasaron?

Pusieron a las IAs más famosas (como GPT-5, Gemini, Llama) a prueba con tres tipos de preguntas:

  1. Opción Múltiple: "¿Qué le recomendarías?" (A, B, C o D).
  2. Verdadero o Falso: "¿Le recomendarías esto?" (Sí o No).
  3. Respuesta Abierta: "¿Qué le recomendarías?" (La IA tiene que inventar la respuesta).

Los Resultados (La parte interesante):

  • El efecto "Olvido": A medida que la conversación se hacía más larga (como leer una novela entera), las IAs empezaron a olvidar los gustos del usuario. Era como si el asistente tuviera amnesia después de hablar mucho tiempo.
  • El efecto "Lenguaje Corporal": Cuando el usuario era sutil (implícito) en lugar de decirlo claramente, las IAs fallaban mucho más. Si el usuario decía "Me encanta el silencio" en lugar de "No quiero ruido", la IA a menudo no lo entendía.
  • El truco de las opciones múltiples: Las IAs eran muy buenas en los exámenes de opción múltiple, pero no porque entendieran al usuario, sino porque adivinaban cuál era la respuesta "rara" entre las opciones. En la vida real, no tienes opciones A, B, C y D; tienes que crear la respuesta tú mismo.
  • La Generalización: Si le decías a la IA "No me gusta el café" y luego le preguntabas sobre "bebidas energéticas", muchas IAs no entendían que probablemente tampoco le gustarían, porque no podían conectar los puntos lógicos.

4. ¿Hay solución?

El estudio probó algunas "ayudas" para las IAs:

  • Recordatorios: Decirle a la IA "Recuerda lo que te dijo el usuario". Ayudó un poco.
  • Ejemplos: Mostrarle ejemplos de cómo responder. Ayudó un poco.
  • Búsqueda Inteligente (RAG): En lugar de leer todo el libro de una vez, la IA busca solo las páginas relevantes. ¡Esta fue la mejor ayuda! Funcionó como tener un índice o un buscador en un libro gigante, permitiéndole encontrar la información clave sin perderse en el ruido.

En Resumen

Este trabajo nos dice que, aunque las IAs son muy inteligentes, aún no son los "mejores amigos" que prometemos que serán. Tienen dificultades para recordar lo que dijimos hace mucho tiempo, especialmente si no lo dijimos de forma directa.

RealPref es como un espejo que nos muestra que, para tener un asistente personal que realmente nos entienda, necesitamos mejorar la capacidad de estas máquinas para:

  1. Recordar detalles en conversaciones muy largas.
  2. Entender lo que no decimos explícitamente (leer entre líneas).
  3. Conectar ideas nuevas con lo que ya saben de nosotros.

Es un paso importante para que, en el futuro, tu asistente digital no sea solo una calculadora de texto, sino un verdadero compañero que conoce tu historia.

Recibe artículos como este en tu bandeja de entrada

Resúmenes diarios o semanales personalizados según tus intereses. Gists o resúmenes técnicos, en tu idioma.

Probar Digest →