Customizing Visual Emotion Evaluation for MLLMs: An Open-vocabulary, Multifaceted, and Scalable Approach

Diese Arbeit stellt einen offenen, vielschichtigen und skalierbaren Ansatz zur Anpassung der visuellen Emotionsbewertung für multimodale große Sprachmodelle vor, der durch eine neue Aufgabe und eine automatisierte Pipeline bestehende Evaluierungslücken schließt und deutliche Verbesserungspotenziale im Vergleich zum menschlichen Urteilsvermögen aufzeigt.

Daiqing Wu, Dongbao Yang, Sicheng Zhao, Can Ma, Yu Zhou

Veröffentlicht 2026-03-03
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du hast einen sehr klugen Roboter, der Bilder sehen und beschreiben kann. Er ist wie ein super-gelernter Schüler, der Millionen von Büchern gelesen hat. Aber jetzt stellen wir eine neue, knifflige Frage: Kann dieser Roboter wirklich fühlen, was auf einem Bild passiert?

Das ist genau das Problem, das die Forscher in diesem Papier untersuchen. Hier ist die Geschichte, einfach erklärt:

1. Das Problem: Der Roboter ist zu stur

Bisher haben wir Roboter getestet, indem wir ihnen Bilder gezeigt und gefragt haben: "Was ist hier zu sehen? Traurig? Glücklich?"
Das Problem dabei war, dass wir die Antworten oft in eine enge Schublade gepresst haben (z. B. nur "Traurig" oder "Glücklich"). Aber Gefühle sind wie Farben im Regenbogen – es gibt unendlich viele Nuancen!

  • Das alte System: Wie ein Lehrer, der nur "Richtig" oder "Falsch" ankreuzt, selbst wenn die Antwort des Schülers eigentlich sehr clever und nachvollziehbar war.
  • Das Ergebnis: Manche Studien sagten, die Roboter sind gut, andere sagten, sie sind schlecht. Das lag daran, dass die Prüfungen nicht fair waren.

2. Die Lösung: Ein neues Spiel – "Wahr oder Falsch?"

Die Forscher haben sich etwas Cleveres ausgedacht: Statt den Roboter zu fragen "Was fühlst du?", sagen sie ihm: "Hier ist ein Satz über das Bild. Stimmt das oder nicht?"

Stell dir vor, du zeigst einem Freund ein Foto von einem Feuerwehrmann, der ein Haus rettet.

  • Alter Weg: "Was fühlt der Feuerwehrmann?" (Antwort: "Heldentum" oder "Angst" – schwer zu bewerten).
  • Neuer Weg (ESJ): Du sagst: "Dieses Bild zeigt Mut." oder "Dieses Bild zeigt, dass der Feuerwehrmann Angst hat."
  • Der Roboter muss nur entscheiden: Ja, das klingt plausibel oder Nein, das passt nicht.

Das ist viel fairer, weil es dem Roboter erlaubt, seine eigene "Meinung" zu haben, solange sie logisch ist.

3. Der Werkzeugkasten: INSETS (Der emotionale Übersetzer)

Um dieses Spiel zu spielen, brauchen sie Tausende von Bildern und Sätzen. Das manuell zu machen, wäre wie Handarbeit mit einer Nadel und einem Faden – viel zu langsam!
Also haben sie INSETS gebaut. Das ist wie ein automatischer Übersetzer und Erfinder.

  • Er schaut sich Bilder an.
  • Er fragt mehrere verschiedene Roboter-Modelle: "Was fühlst du hier?"
  • Er sammelt die Antworten, filtert die Unsinnigen heraus und baut daraus Sätze.
  • Er nutzt eine Art "Gefühls-Baum" (basierend auf Psychologie), um sicherzustellen, dass die Gefühle richtig sortiert sind.

Dadurch haben sie eine riesige Bibliothek von 462.000 Beispielen erstellt, ohne dass Menschen stundenlang hantieren mussten.

4. Der große Test: MVEI (Die emotionale Reifeprüfung)

Mit dieser Bibliothek haben sie einen neuen Test namens MVEI gebaut. Sie haben ihn mit den besten aktuellen Robotern (wie GPT-4o) durchgeführt. Der Test prüft vier Dinge:

  1. Grundstimmung: Ist das Bild eher positiv oder negativ?
  2. Erklärung: Warum fühlt man sich so? (z. B. "Weil es regnet, ist es traurig").
  3. Kontext: Passt das Gefühl zur Situation? (z. B. "Ein Lächeln auf einer Beerdigung ist seltsam").
  4. Persönlichkeit: Würde jemand anderes das Bild anders fühlen? (z. B. "Ein Feuerwehrmann würde hier eher Angst als Freude empfinden").

5. Das Ergebnis: Roboter sind gut, aber noch keine Menschen

Die Ergebnisse waren aufschlussreich:

  • Die Roboter sind überraschend gut! Sie verstehen oft, warum ein Bild traurig oder fröhlich ist. Sie können sogar den Kontext verstehen.
  • Aber sie sind nicht perfekt. Im Vergleich zu echten Menschen schneiden sie besonders bei zwei Dingen schlecht ab:
    • Die genaue Stimmung: Sie verwechseln oft, ob etwas "mild traurig" oder "tief traurig" ist.
    • Die subjektive Sicht: Sie verstehen schwer, dass ich vielleicht Angst habe, während du dich mutig fühlst. Roboter denken oft, es gäbe nur eine richtige Gefühlsreaktion auf ein Bild.

Fazit

Dieses Papier ist wie eine neue Landkarte für die Zukunft. Es zeigt uns, wie wir Roboter besser testen können, damit sie nicht nur Bilder "sehen", sondern auch die menschliche Komplexität der Gefühle verstehen lernen.

Die Botschaft ist: Unsere KI wird immer schlauer, aber um wirklich "emotional intelligent" zu werden, müssen wir sie noch ein bisschen mehr in die menschliche Welt einführen – denn Gefühle sind selten schwarz-weiß, sondern immer bunt und persönlich.