Comparative Analysis of Modern Machine Learning Models for Retail Sales Forecasting

Die Studie zeigt, dass bei der Prognose des Einzelhandelsumsatzes unter Bedingungen wie intermittierender Nachfrage und häufigen Produktwechseln lokale baumbasierte Ensemble-Methoden wie XGBoost komplexeren Deep-Learning-Architekturen überlegen sind und somit die Ausrichtung auf die Problemcharakteristika wichtiger ist als die architektonische Raffinesse.

Luka Hobor, Mario Brcic, Lidija Polutnik, Ante Kapetanovic

Veröffentlicht 2026-03-12
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Vorhersage des Verkaufs: Warum einfache Bäume besser sind als komplexe Roboter im Einzelhandel

Stellen Sie sich vor, Sie führen einen großen Supermarkt. Ihre größte Herausforderung ist es, genau zu wissen, wie viele Seifenstücke, Shampoos oder Zahnpastatuben Sie nächste Woche brauchen. Wenn Sie zu viel lagern, verschwendet sich Geld und Platz. Wenn Sie zu wenig haben, sind die Kunden unglücklich.

Dieser wissenschaftliche Artikel ist wie ein großer Testlauf, bei dem verschiedene „Wahrsager" (Computermodelle) gegeneinander antreten, um zu sehen, wer die Zukunft des Verkaufs am besten vorhersagen kann.

Hier ist die Geschichte dahinter, einfach erklärt:

1. Das Problem: Ein chaotischer Markt

Der Markt, den die Forscher untersucht haben, ist nicht wie ein riesiges Online-Lagerhaus, wo alles glatt läuft. Es ist ein klassischer Laden mit vielen Filialen.

  • Das Chaos: Manchmal wird ein Produkt verkauft, manchmal nicht. Oft sind Regale leer, oder es gibt keine Daten, weil ein Artikel gerade nicht im Angebot war.
  • Die Herausforderung: Die Daten sind „lückenhaft" und „unterbrochen". Es ist, als würde man versuchen, ein Puzzle zu lösen, bei dem viele Teile fehlen und die anderen Teile ständig ihre Form ändern.

2. Die Kandidaten: Drei Arten von Vorhersage-Maschinen

Die Forscher haben drei Gruppen von Modellen gegeneinander antreten lassen:

  • Die Klassiker (Statistik): Das sind die alten, bewährten Methoden. Sie schauen sich die Vergangenheit an und ziehen eine gerade Linie weiter.
    • Metapher: Ein erfahrener, aber etwas starrer Buchhalter, der sagt: „Wenn es letzte Woche so lief, läuft es diese Woche auch so."
  • Die Bäume (XGBoost & LightGBM): Das sind moderne, aber nicht übermäßig komplexe Algorithmen. Sie treffen Entscheidungen wie in einem Labyrinth aus Ja/Nein-Fragen.
    • Metapher: Ein sehr schlauer, pragmatischer Verkäufer, der sofort merkt: „Aha, wenn es Dienstag ist UND ein Feiertag ist UND der Preis gesenkt wurde, dann kaufen die Leute mehr." Er passt sich schnell an die kleinen Details an.
  • Die Roboter (Neuronale Netze wie N-BEATS, TFT): Das sind die High-Tech-KI-Modelle, die oft in großen Tech-Firmen wie Amazon eingesetzt werden. Sie sind tiefgreifende neuronale Netzwerke.
    • Metapher: Ein genialer, aber etwas überempfindlicher Wissenschaftler im Labor. Er kann riesige Datenmengen verarbeiten, aber wenn die Daten „schmutzig" sind (Lücken haben), wird er verwirrt und macht Fehler.

3. Der große Wettkampf

Die Forscher haben die Modelle in verschiedenen Szenarien getestet:

  • Szenario A: Jedes Produkt wird einzeln betrachtet (wie wenn jeder Regalbereich seinen eigenen Berater hätte).
  • Szenario B: Alle Produkte werden zusammen betrachtet (ein riesiger Super-Berater für alles).
  • Szenario C & D: Die Forscher haben versucht, die fehlenden Daten mit einer KI (SAITS) „aufzufüllen" (Imputation), bevor sie die Modelle trainierten.

Das Ergebnis war überraschend klar:

  1. Die Bäume gewinnen: Die Modelle XGBoost und LightGBM waren die absoluten Sieger. Sie hatten den geringsten Fehler.
    • Warum? Sie sind robust. Sie ignorieren das Chaos in den Daten und konzentrieren sich auf das, was wirklich zählt. Sie sind wie ein guter Koch, der auch mit etwas verwelktem Gemüse noch ein tolles Essen macht.
  2. Die Roboter verlieren: Die komplexen KI-Modelle (Neuronale Netze) schnitten schlechter ab.
    • Warum? Sie brauchen saubere, riesige Datenmengen, um zu lernen. In einem echten Laden mit vielen Lücken und Unterbrechungen wurden sie verwirrt. Sie versuchten, Muster zu finden, die gar nicht existierten.
  3. Das „Flicken"-Experiment: Als die Forscher versuchten, die fehlenden Daten mit einer KI aufzufüllen, passierte etwas Interessantes:
    • Bei den Bäumen (LightGBM) wurde es plötzlich schlechter. Das Auffüllen hat die Daten so verändert, dass der „pragmatische Verkäufer" verwirrt wurde.
    • Bei den Robotern half das Auffüllen etwas, aber sie kamen trotzdem nicht an die Bäume heran.

4. Die große Lektion für die Praxis

Die wichtigste Erkenntnis dieses Artikels ist: Komplexität ist nicht immer besser.

  • Für Online-Shops (wo Daten riesig und sauber sind) funktionieren die teuren Roboter-KIs super.
  • Für echte Läden (mit vielen Filialen, leeren Regalen und unregelmäßigen Verkäufen) sind die einfacheren Baum-Modelle unschlagbar.

Die Analogie zum Abschluss:
Stellen Sie sich vor, Sie müssen einen Weg durch einen dichten, nebligen Wald finden.

  • Der Roboter (KI) versucht, eine perfekte 3D-Karte des gesamten Waldes zu erstellen. Aber weil der Nebel (die fehlenden Daten) zu dicht ist, verliert er den Überblick und läuft gegen Bäume.
  • Der Baum-Modell (XGBoost) nimmt einfach einen Kompass und geht Schritt für Schritt. Er ignoriert den Nebel, schaut auf den Boden und findet den Weg viel schneller und sicherer.

Fazit

Wenn Sie ein Geschäft besitzen und Ihre Lagerbestände planen wollen, brauchen Sie keine teuerste, komplizierteste KI. Ein gut trainiertes, einfaches Modell (wie XGBoost), das auf die spezifischen Details Ihres Geschäfts zugeschnitten ist, ist schneller, günstiger und liefert genauere Ergebnisse.

Kurz gesagt: Im echten, chaotischen Einzelhandel gewinnt der pragmatische Praktiker, nicht der theoretische Genie-Roboter.