Can Vision Language Models Assess Graphic Design Aesthetics? A Benchmark, Evaluation, and Dataset Perspective

Diese Arbeit stellt mit AesEval-Bench das erste umfassende Benchmark, eine systematische Evaluierung verschiedener Vision-Language-Modelle und einen Trainingsdatensatz vor, um die Fähigkeit von KI-Modellen zur ästhetischen Bewertung von Grafikdesign zu untersuchen und zu verbessern.

Arctanx An, Shizhao Sun, Danqing Huang, Mingxi Cheng, Yan Gao, Ji Li, Yu Qiao, Jiang Bian

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du bist ein Chef-Redakteur für eine Zeitschrift. Du hast viele verschiedene Grafiker, die dir Entwürfe schicken. Manche sind wunderschön, andere sehen aus, als hätte ein Kleinkind mit dem Finger auf dem Bildschirm gewedelt. Deine Aufgabe ist es, zu sagen: „Das ist toll!" oder „Das muss nochmal gemacht werden."

Früher war das nur Sache von Menschen. Aber jetzt gibt es diese super-intelligenten Computerprogramme, die man Vision-Language-Modelle (VLMs) nennt. Sie können Bilder sehen und Texte lesen. Die große Frage war: Können diese Computerprogramme auch „schön" und „hässlich" unterscheiden, genau wie ein echter Designer?

Diese neue Studie (die auf der ICLR 2026 Konferenz vorgestellt wird) sagt im Grunde: „Die Computer sind noch nicht ganz so gut wie wir, aber wir haben ihnen jetzt ein Lehrbuch und einen Test geschrieben, damit sie lernen können."

Hier ist die Geschichte, einfach erklärt:

1. Das Problem: Der Computer ist noch ein „Kunst-Anfänger"

Bisher haben Computerprogramme oft nur einfache Dinge geprüft, wie „Ist das Bild scharf?" oder „Sind die Farben hell?". Aber beim Grafikdesign geht es um viel mehr:

  • Die Typografie: Ist die Schrift gut lesbar?
  • Das Layout: Stehen die Dinge an den richtigen Stellen?
  • Die Farben: Harmonieren sie oder schreien sie sich gegenseitig an?
  • Die Grafik: Passt das Bild zum Text?

Die Forscher haben herausgefunden, dass die besten Computerprogramme zwar gut sind, aber oft noch nicht verstehen, warum ein Design schlecht aussieht. Sie können sagen: „Das ist hässlich", aber sie können nicht zeigen: „Ach, hier ist der Text zu klein und hier überlappt das Bild den Titel."

2. Die Lösung: Der neue „Meister-Test" (AesEval-Bench)

Um das zu messen, haben die Forscher einen neuen, riesigen Test entwickelt, den sie AesEval-Bench nennen. Stell dir das wie eine Prüfungsordnung für angehende Grafik-Designer vor.

Der Test besteht aus drei Teilen:

  1. Der Ja/Nein-Test: „Sieht dieses Plakat gut aus?" (Ja oder Nein).
  2. Der Such-Test: „Wo genau ist der Fehler?" (Der Computer muss einen Bereich im Bild auswählen, z. B. „Hier ist die Schrift zu klein").
  3. Der Präzisions-Test: „Zeig mir genau, wo der Fehler ist!" (Der Computer muss einen Kasten um den fehlerhaften Bereich ziehen).

Der Test deckt 12 verschiedene Kriterien ab, von der Schriftart bis zur Farbharmonie. Es ist wie ein riesiges Puzzle, bei dem der Computer beweisen muss, dass er nicht nur schaut, sondern auch versteht.

3. Das Ergebnis: Die Prüfungsergebnisse

Als die Forscher die verschiedenen Computerprogramme (von Open-Source bis zu den teuersten kommerziellen Modellen) durch diesen Test schickten, kam folgendes heraus:

  • Die Großen gewinnen (meistens): Die größten und teuersten Modelle (wie GPT-5) waren am besten, aber selbst sie machten Fehler.
  • Denken hilft nicht immer: Man dachte vielleicht, Modelle, die extra „nachdenken" (Reasoning-Modelle), wären besser. Aber nein! Beim Design-Design hilft einfaches, schnelles Sehen oft mehr als langes Nachdenken.
  • Die Lücke: Es gibt noch eine große Lücke zwischen dem, was ein Mensch sieht, und dem, was der Computer sieht.

4. Der Trick: Wie man die Computer lernt (AesEval-Train)

Da die Computer noch nicht perfekt waren, haben die Forscher sie nicht einfach nur getestet, sondern sie trainiert.

Stell dir vor, du unterrichtest einen Schüler.

  • Früher: Du sagst nur: „Das Bild ist hässlich." (Der Schüler weiß nicht, warum).
  • Jetzt (die neue Methode): Du sagst: „Das Bild ist hässlich, weil der rote Kasten hier [Zeige auf den Kasten] den Text verdeckt und die Farben nicht harmonieren."

Die Forscher haben einen riesigen Datensatz erstellt, bei dem die Computer nicht nur die Antwort, sondern auch die Erklärung mit Koordinaten gelernt haben. Sie haben menschliche Designer genutzt, um den Computern zu zeigen, wo genau die Fehler liegen, und dann haben diese Anweisungen genutzt, um die Computer zu trainieren.

Das Ergebnis? Nach dem Training waren die Computer plötzlich viel besser! Sie konnten Fehler viel genauer finden und erklären. Es war, als hätte man dem Schüler über Nacht ein Genie-Gen verpasst.

Zusammenfassung in einer Metapher

Stell dir vor, Grafikdesign ist wie Kochen.

  • Bisher konnten die Computer nur sagen: „Der Teller ist voll."
  • Mit dem neuen Test (AesEval-Bench) haben wir ihnen beigebracht, zu schmecken: „Das Salz ist zu viel, und die Tomaten sind zu klein geschnitten."
  • Und mit dem neuen Trainingsset (AesEval-Train) haben wir ihnen einen Kochkurs gegeben, bei dem ein Meisterkoch (der Mensch) ihnen genau zeigt, wie man schneidet und würzt.

Fazit: Computer können Grafikdesign bewerten, aber sie brauchen noch ein bisschen Hilfe von uns Menschen, um wirklich zu verstehen, was „schön" ist. Diese Studie gibt ihnen genau dieses Werkzeug an die Hand.