Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Este estudio demuestra que, en el contexto de la previsión de ventas minoristas con demanda intermitente y datos incompletos, los métodos basados en árboles como XGBoost superan a arquitecturas de aprendizaje profundo más sofisticadas, lo que sugiere que la selección del modelo debe priorizar la adecuación a las características del problema sobre la complejidad arquitectónica.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic

Publicado 2026-03-12
📖 5 min de lectura🧠 Análisis profundo

Each language version is independently generated for its own context, not a direct translation.

¡Claro que sí! Imagina que este artículo es como una gran carrera de obstáculos entre diferentes "atletas" (modelos de inteligencia artificial) para ver quién puede predecir mejor cuántas botellas de champú o jabón se venderán en una tienda física la próxima semana.

Aquí tienes la explicación, traducida al español y con analogías sencillas:

🏪 El Problema: Predecir el futuro en una tienda física

Imagina que eres el gerente de una cadena de tiendas de barrio. Tienes miles de productos y miles de tiendas. A veces, un producto se vende mucho; otras veces, no se vende nada durante semanas (demanda intermitente). A veces, los datos faltan porque el sistema se cayó o porque el producto estaba agotado.

El objetivo es simple: Saber exactamente cuánto pedir para no tener demasiados productos acumulados (que ocupan espacio) ni quedarse sin stock (y perder ventas).

🥊 Los Competidores

Los autores pusieron a prueba a tres tipos de "atletas" para ver quién gana:

  1. Los Clásicos (Estadística): Son como los abuelos de la previsión. Usan fórmulas matemáticas antiguas y sencillas.
    • Analogía: Son como un viejo reloj de péndulo. Funcionan bien si el tiempo es estable, pero si hay una tormenta repentina, se confunden.
  2. Los Árboles de Decisión (XGBoost y LightGBM): Son modelos que aprenden haciendo miles de preguntas de "sí o no".
    • Analogía: Imagina a un detective muy metódico que revisa cada pista (precio, día de la semana, promoción, competencia) y toma decisiones lógicas paso a paso. Es muy bueno con datos desordenados.
  3. Las Redes Neuronales (Deep Learning): Son modelos muy complejos inspirados en el cerebro humano.
    • Analogía: Son como un genio artístico que intenta ver patrones ocultos y conexiones mágicas en medio de la nada. Suelen ser muy potentes, pero a veces se marean si los datos son muy sucios o escasos.

🧪 El Experimento: ¿Qué pasó?

Los investigadores probaron a estos atletas en dos escenarios principales:

  • Escenario Local: Entrenar un modelo específico para cada grupo de productos (ej. un modelo solo para jabones, otro solo para champús).
  • Escenario Global: Entrenar un solo modelo gigante para todo el supermercado a la vez.

También probaron dos tipos de "limpieza" de datos:

  • Datos sucios: Dejar los huecos tal cual (como están en la vida real).
  • Datos "reparados": Usar una IA avanzada (SAITS) para adivinar y rellenar los huecos de los datos faltantes.

🏆 Los Resultados: ¡Ganan los Detectives!

Aquí está la sorpresa del estudio:

  1. Los Árboles de Decisión (XGBoost y LightGBM) ganaron por goleada.

    • La analogía: En el mundo de las tiendas físicas, donde los datos son "sucios", faltan valores y los productos cambian de estante, el detective metódico funciona mejor que el genio artístico. El detective no se confunde con los huecos en los datos; simplemente ignora lo que no sabe y se centra en lo que sí ve.
    • El modelo XGBoost fue el campeón, con el error más bajo.
  2. Las Redes Neuronales (Deep Learning) tuvieron dificultades.

    • La analogía: El genio artístico intentó adivinar los patrones, pero como los datos de las tiendas físicas son muy irregulares (a veces se vende, a veces no), el genio se frustró y empezó a hacer predicciones exageradas (creía que se vendería mucho más de lo real).
    • Incluso cuando usaron la IA para "reparar" los datos faltantes, las redes neuronales no lograron superar a los árboles de decisión. De hecho, en algunos casos, "reparar" los datos tan artificialmente confundió aún más a los modelos.
  3. El tamaño importa (pero no siempre).

    • A veces se dice que "cuantos más datos, mejor para la IA". Pero en este caso, como las tiendas físicas son fragmentadas (miles de tiendas pequeñas con datos diferentes), entrenar un modelo gigante para todo no ayudó. Funcionó mejor tener un modelo pequeño y específico para cada grupo de productos.

💡 La Lección Principal (Para el gerente de la tienda)

El mensaje del estudio es muy claro: No necesitas la tecnología más compleja para resolver un problema complejo.

  • Si tienes una tienda física con datos irregulares, no gastes dinero ni tiempo intentando usar las redes neuronales más modernas y costosas.
  • Usa modelos basados en árboles de decisión (como XGBoost). Son más rápidos, más baratos de entrenar y, lo más importante, aciertan más.

🎯 En resumen

Imagina que quieres predecir si lloverá mañana.

  • Si vives en un lugar donde siempre llueve igual, un modelo complejo de satélite (Deep Learning) podría funcionar.
  • Pero si vives en un pueblo donde el clima cambia locamente, los datos son incompletos y hay tormentas repentinas, lo mejor es consultar a un veterano local que conoce cada rincón del pueblo (XGBoost).

Este estudio nos dice que, para las tiendas físicas, el "veterano local" (los modelos de árboles) es mucho mejor que el "satélite de alta tecnología" (las redes neuronales), especialmente cuando los datos no son perfectos.