Towards Cold-Start Drafting and Continual Refining: A Value-Driven Memory Approach with Application to NPU Kernel Synthesis

El paper presenta EvoKernel, un marco de agentes autoevolutivos que utiliza un enfoque de memoria basado en valores para superar la escasez de datos en la síntesis de kernels para NPUs, logrando mejorar la precisión de los modelos de 11.0% a 83.0% y acelerar el rendimiento mediante un refinamiento continuo.

Yujie Zheng, Zhuo Li, Shengtao Zhang, Hanjing Wang, Junjie Sheng, Jiaqian Wang, Junchi Yan, Weinan Zhang, Ying Wen, Bo Tang, Muning Wen

Publicado 2026-03-12
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que quieres enseñar a un genio de la programación (una Inteligencia Artificial) a construir motores de carreras de Fórmula 1, pero hay un problema: nunca ha visto un motor así antes.

Aquí tienes la explicación de este paper, "EvoKernel", contada como si fuera una historia de aprendizaje y superación.

🏁 El Problema: La "Pared de Datos"

Imagina que tienes un chef de cocina muy famoso (la IA) que es un experto en hacer pizza italiana. Tiene millones de recetas y sabe exactamente cómo hacerla perfecta. Pero, de repente, le pides que cocine un plato de un país que nunca ha visitado, donde los ingredientes son extraños y no hay libros de cocina (datos) disponibles.

En el mundo de la computación, esto es lo que pasa con las NPU (un tipo de chip especial para Inteligencia Artificial).

  • El éxito: En chips antiguos (como los de NVIDIA), hay millones de ejemplos de código. La IA puede copiar y pegar soluciones y funciona genial.
  • El fracaso: En los chips nuevos (como los de Ascend/NPU), hay muy pocos ejemplos. Si le pides a la IA que escriba código para estos chips, se queda en blanco o hace cosas que no funcionan. A esto los autores lo llaman "Cold-Start" (arranque en frío) o la "Pared de Datos".

🚀 La Solución: EvoKernel (El Entrenador que Aprende)

Los autores crearon un sistema llamado EvoKernel. Imagina que en lugar de darle al chef un libro de recetas, le das un cuaderno de bitácora inteligente y un entrenador personal que aprende a medida que avanza.

EvoKernel funciona en dos fases principales, como un atleta que primero aprende a correr y luego a correr rápido:

1. Fase de Borrador (Cold-Start Drafting): "¡Que funcione primero!"

Al principio, la IA no sabe nada. EvoKernel le dice: "No te preocupes por ser rápido, solo asegúrate de que el código no explote y haga lo que se le pide".

  • La analogía: Es como un arquitecto que dibuja un plano de una casa. Al principio, solo quiere asegurarse de que las paredes estén rectas y el techo no se caiga.
  • El truco: El sistema guarda cada intento (éxito o fracaso) en su memoria. Si un intento falló porque le faltó una pieza, lo anota. Si uno funcionó, lo guarda como un "tesoro".

2. Fase de Refinamiento Continuo (Continual Refining): "¡Ahora hazlo más rápido!"

Una vez que la IA logra que el código funcione (aunque sea lento), entra la segunda fase.

  • La analogía: Ahora que la casa está en pie, el arquitecto empieza a optimizar: "¿Podemos poner ventanas más grandes para que entre más luz? ¿Podemos cambiar el aislamiento para que se caliente menos?".
  • El truco: El sistema toma el código que ya funciona y lo mejora iterativamente, midiendo cuánto tiempo tarda en ejecutarse y buscando formas de reducir ese tiempo.

🧠 El Superpoder: La "Memoria con Valor" (Value-Driven Memory)

Aquí está la parte más genial. La mayoría de los sistemas buscan información basándose en qué tan parecida es una palabra a otra (como buscar en Google). Pero EvoKernel es más inteligente.

Imagina que tienes una biblioteca gigante de intentos fallidos y éxitos.

  • Sistema normal: Busca un libro porque el título suena parecido al problema actual.
  • EvoKernel: Busca un libro basándose en cuánto le ayudó a resolver problemas similares en el pasado.

El sistema tiene un "ojo crítico" (llamado Q-Value) que aprende a decir: "¡Oye! Este intento fallido de hace dos días es muy útil para este problema nuevo porque nos enseñó a evitar un error específico". O bien: "¡Este código exitoso es perfecto para optimizar la velocidad!".

No necesita reescribir el cerebro de la IA (no necesita "entrenar" la IA de nuevo, lo cual es caro y lento). Solo necesita enseñarle a buscar mejor en su propia experiencia.

🏆 Los Resultados: De Novato a Maestro

Los autores probaron esto en un banco de pruebas llamado KernelBench (una especie de olimpiada de programación para chips).

  • Antes de EvoKernel: Las mejores IAs del mundo (como GPT-5.2) tenían un éxito del 11% en estos chips nuevos. ¡Casi todas fallaban!
  • Con EvoKernel: El éxito subió al 83%.
  • Velocidad: Además de funcionar, el código que generaron fue, en promedio, 3.6 veces más rápido que el primer borrador que la IA intentó hacer.

💡 En Resumen

EvoKernel es como darle a un principiante un cuaderno de notas mágico que le dice: "Mira, la última vez que intentaste esto, fallaste por aquí. Intenta cambiar eso. Y por cierto, el éxito que tuviste ayer con otro problema nos puede ayudar a resolver este hoy".

Gracias a esto, las IAs pueden aprender a programar para hardware nuevo y raro sin necesidad de tener millones de ejemplos previos, simplemente aprendiendo de sus propios errores y aciertos a medida que avanzan. ¡Es como enseñar a un niño a andar en bicicleta sin caerse, dándole un soporte que se ajusta automáticamente a su progreso! 🚲✨