Not Another Imputation Method: A Transformer-based Model for Missing Values in Tabular Datasets

Dieses Paper stellt NAIM vor, ein neuartiges Transformer-Modell, das fehlende Werte in tabellarischen Datensätzen durch feature-spezifische Embeddings und eine modifizierte Masked-Self-Attention-Mechanik direkt verarbeitet, ohne auf traditionelle Imputationsverfahren angewiesen zu sein, und dabei in umfangreichen Tests die Leistungsfähigkeit zahlreicher bestehender Modelle übertrifft.

Camillo Maria Caruso, Paolo Soda, Valerio Guarrasi

Veröffentlicht 2026-03-13
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache Erklärung der Forschung „NAIM" (Not Another Imputation Method), die wie eine Geschichte aus dem Alltag erzählt wird:

Das Problem: Das Puzzle mit den fehlenden Teilen

Stellen Sie sich vor, Sie versuchen, ein riesiges Puzzle zu lösen, um ein Bild zu erkennen (das ist die Aufgabe einer künstlichen Intelligenz). Aber das Puzzle ist nicht vollständig: Viele Teile fehlen.

In der Welt der Daten (Tabellen mit Zahlen und Kategorien) passiert das ständig. Vielleicht hat jemand bei einer Umfrage vergessen, ein Feld auszufüllen, oder ein Sensor hat einen Fehler gemacht.

Der alte Weg (Imputation):
Bisher haben Computerwissenschaftler versucht, dieses Problem zu lösen, indem sie die fehlenden Teile des Puzzles erraten haben. Sie haben eine Schablone genommen und gesagt: „Oh, hier fehlt ein Teil? Ich male einfach einen neuen Teil hinein, der gut aussieht."

  • Das Problem dabei: Wenn Sie falsch raten, verfälschen Sie das Bild. Der Computer lernt aus einer Lüge. Es ist, als würde ein Koch ein Rezept kochen, bei dem ihm die Eier fehlen, und er einfach etwas Wasser in die Schüssel kippt, weil er denkt, das sei ähnlich. Das Ergebnis schmeckt oft nicht richtig.

Die Lösung: NAIM – Der Meister, der mit dem Unvollständigen spielt

Die Forscher aus Rom und Schweden haben eine neue Methode namens NAIM entwickelt. Der Name ist ein kleiner Witz: „Noch eine Methode zur Lückenfüllung". Aber das ist sie nicht!

Wie funktioniert NAIM? (Die Analogie)

Stellen Sie sich NAIM nicht als Koch vor, der Zutaten ersetzt, sondern als einen genialen Detektiv, der mit dem arbeitet, was er wirklich sieht.

  1. Der „Unsichtbare Mantel" (Feature Embeddings):
    Normalerweise stolpert ein Computer über fehlende Daten und stürzt ab. NAIM trägt jedoch einen speziellen Mantel. Wenn eine Information fehlt, weiß NAIM genau: „Aha, hier ist ein Loch." Er behandelt das Loch nicht als Fehler, sondern als eine ganz eigene Information. Er sagt: „Ich ignoriere das Loch, aber ich behandle es so, als wäre es ein spezieller, leerer Platz, der mir sagt, dass etwas fehlt." Er füllt nichts auf; er akzeptiert die Leere.

  2. Der „Lichtschalter" (Masked Self-Attention):
    Stellen Sie sich vor, NAIM schaut sich das Puzzle an. Wenn er auf ein fehlendes Teil stößt, schaltet er das Licht für genau diesen Bereich aus.

    • Alte Methoden: Versuchen, das Licht anzumachen, indem sie das fehlende Teil nachahmen (und dabei oft blenden).
    • NAIM: Schaltet das Licht für das fehlende Teil einfach aus. Er sagt: „Ich schaue nur auf die Teile, die leuchten (die vorhanden sind). Das dunkle Teil stört mich nicht, weil ich es einfach ausblende." So lernt er, nur aus den echten, vorhandenen Informationen zu schließen, ohne sich von den fehlenden Teilen verwirren zu lassen.
  3. Das „Trainings-Spiel" (Regularisierung):
    Das Geniale an NAIM ist, wie es lernt. Normalerweise trainiert man einen KI-Modell mit perfekten Daten. Aber NAIM macht sich das Training selbst schwerer, um stärker zu werden.

    • Die Analogie: Stellen Sie sich einen Sportler vor, der nur auf einer perfekten, ebenen Straße läuft. Wenn er dann auf unebenem Gelände ist, fällt er hin.
    • NAIM hingegen wird trainiert, indem ihm während des Trainings zufällig Teile seiner eigenen Daten weggenommen werden. Der Computer muss also lernen: „Okay, heute fehlen mir 20 % der Informationen. Ich muss trotzdem das Ziel erreichen!"
    • Dadurch wird er extrem robust. Wenn er später in der echten Welt auf fehlende Daten trifft, denkt er: „Kein Problem, das habe ich schon tausendmal geübt."

Warum ist das so toll?

Die Forscher haben NAIM gegen 11 andere moderne KI-Modelle getestet (sowohl alte klassische Methoden als auch neue Deep-Learning-Modelle).

  • Das Ergebnis: NAIM hat fast immer gewonnen.
  • Der Grund: Weil er keine Zeit damit verliert, Dinge zu erraten, die er nicht weiß. Er nutzt das, was da ist, und ignoriert das, was fehlt, auf eine sehr intelligente Weise.

Zusammenfassung in einem Satz

Statt die fehlenden Puzzleteile mühsam und oft falsch zu erraten, hat NAIM gelernt, das Puzzle auch dann zu lösen, wenn Teile einfach fehlen, indem er sich auf die vorhandenen Teile konzentriert und die Lücken geschickt umgeht.

Es ist der Unterschied zwischen einem Menschen, der versucht, einen Satz zu verstehen, indem er die fehlenden Wörter errät (und sich dabei irrt), und einem Menschen, der den Satz versteht, weil er den Kontext der vorhandenen Wörter so gut kennt, dass die fehlenden Wörter gar nicht stören.