Evaluating quality metrics through the lenses of psychophysical measurements of low-level vision

Diese Arbeit stellt einen neuen Testrahmen vor, der anhand psychophysischer Messungen der niederen visuellen Wahrnehmung (wie Kontrastsensitivität und -maskierung) die Leistungsfähigkeit von 34 etablierten Bild- und Videoqualitätsmetriken bewertet und dabei deren spezifische Stärken sowie systematische Schwächen im Vergleich zu menschlichen Sehprinzipien aufdeckt.

Dounia Hammou, Yancheng Cai, Pavan Madhusudanarao, Christos G. Bampis, Rafał K. Mantiuk

Veröffentlicht Mon, 09 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen riesigen Schatz an Bildern und Videos. Um zu entscheiden, welche davon wirklich gut aussehen, brauchen Sie einen zuverlässigen Prüfer. In der Welt der Technik gibt es dafür sogenannte Qualitäts-Metriken (wie SSIM, LPIPS oder VMAF). Das sind mathematische Formeln, die berechnen, wie „schön" oder „fehlerhaft" ein Bild ist.

Das Problem ist: Diese Formeln wurden oft nur danach bewertet, ob sie mit menschlichen Meinungen übereinstimmen. Aber warum stimmen sie überein oder warum versagen sie? Das war lange ein Rätsel.

Diese neue Studie von Forschern der Universität Cambridge und Netflix stellt sich genau diese Frage. Sie sagen: „Lassen Sie uns nicht nur raten, ob die Metrik gut ist. Lassen Sie uns sie direkt auf ihre Augen-Intelligenz testen."

Hier ist die Erklärung der Studie, übersetzt in eine einfache Geschichte mit Analogien:

1. Das Problem: Der blinde Prüfer

Stellen Sie sich diese Qualitäts-Metriken wie einen Koch vor, der blind ist. Er kann schmecken, ob das Essen salzig ist (das ist wie ein einfacher Fehler im Bild), aber er weiß nicht, wie unser menschlicher Geschmackssinn funktioniert.

  • Manche Metriken sagen: „Ein Bild ist schlecht, weil es ein winziges Pixel zu hell ist." (Aber ein Mensch würde das gar nicht bemerken).
  • Andere sagen: „Das Bild ist toll," obwohl es unscharf ist.

Bisher haben wir diese Köche nur danach bewertet, ob sie am Ende des Essens sagen: „Das schmeckt gut" oder „Das schmeckt schlecht". Aber wir haben nie getestet, ob sie wirklich verstehen, wie wir schmecken.

2. Die Lösung: Der „Augen-Test"

Die Forscher haben einen neuen Test entwickelt. Sie nehmen diese mathematischen Köche und stellen ihnen spezielle optische Tricks vor, die wir aus der Psychologie kennen. Es ist, als würden wir dem blinden Koch eine Brille aufsetzen und ihm zeigen, wie das menschliche Auge wirklich funktioniert.

Sie testen drei Hauptfähigkeiten:

A. Der „Flüstertest" (Kontrast-Empfindlichkeit)

  • Die Situation: Stellen Sie sich vor, jemand flüstert Ihnen etwas zu. Wenn es sehr leise ist (niedriger Kontrast), hören Sie es nur, wenn es genau in der richtigen Tonlage ist. Wenn es zu tief oder zu hoch ist, hören Sie es nicht.
  • Der Test: Die Forscher zeigen den Metriken Muster mit unterschiedlichen „Tonlagen" (Häufigkeiten von Linien im Bild).
  • Das Ergebnis:
    • Der Klassiker SSIM ist wie ein Hörgerät, das nur hohe Töne hört. Er ignoriert mittlere Töne, die für uns Menschen aber am wichtigsten sind. Er findet also kleine, feine Fehler überall, wo wir sie gar nicht sehen.
    • MS-SSIM (eine verbesserte Version) hat ein besseres Hörgerät und hört die mittleren Töne viel besser.
    • LPIPS (ein moderner KI-basierter Metrik) überrascht alle: Er versteht diese „Tonlagen" fast perfekt, obwohl er nie explizit dafür trainiert wurde. Es ist, als hätte er das Gehör eines Musikers, ohne jemals Noten gelernt zu haben.

B. Der „Lärmtest" (Kontrast-Masking)

  • Die Situation: Wenn Sie in einer lauten Disco stehen (das ist das „Maske" oder der Hintergrund), hören Sie ein Flüstern viel schlechter als in einer ruhigen Bibliothek. Das menschliche Auge ist „taub" für Fehler, wenn das Bild selbst schon viel Struktur und Textur hat.
  • Der Test: Die Forscher fügen einem lauten, strukturierten Hintergrund ein kleines Fehlerchen hinzu.
  • Das Ergebnis:
    • Viele alte Metriken (wie PSNR) hören das Flüstern immer noch, egal wie laut die Disco ist. Sie verstehen nicht, dass das menschliche Auge den Fehler im Chaos übersehen würde.
    • LPIPS und DISTS (KI-Modelle) sind hier Meister. Sie verstehen: „Ah, hier ist viel Lärm, das kleine Fehlerchen ist unsichtbar." Sie ahmen nach, wie unser Gehirn Störungen in komplexen Mustern ignoriert.
    • VMAF (der beliebte Video-Tester) versteht das nur, wenn das Fehlerchen sehr laut ist. Bei leisen Fehlern im Chaos versagt er.

C. Der „Farb- und Zeit-Test"

  • Farbe: Wenn Sie ein rotes und ein grünes Muster haben, sollten wir sie als gleich „laut" empfinden, wenn sie physikalisch gleich stark sind. Viele Metriken verzerren das: Sie finden rote Muster viel „schlimmer" als grüne, obwohl wir sie gleich sehen.
  • Zeit (Flackern): Wenn ein Video flackert, merken wir das. Aber nur, wenn es schnell genug flackert. Die meisten Video-Metriken schauen sich nur ein paar Bilder an und merken das Flackern gar nicht. Nur wenige (wie ColorVideoVDP) verstehen, dass das menschliche Auge Zeit als Kontinuum wahrnimmt.

3. Die große Überraschung: Die KI ist besser als die Mathematik

Das vielleicht coolste Ergebnis der Studie ist:
Die modernen KI-Metriken (wie LPIPS oder DISTS), die durch neuronale Netze lernen, verstehen die „Geheimnisse" des menschlichen Auges oft besser als die alten, handgeschriebenen Formeln.

  • Es ist, als ob ein junger Schüler, der nie Biologieunterricht hatte, intuitiv versteht, wie das Auge funktioniert, während ein alter Professor (die alte Formel) stur an veralteten Regeln festhält.
  • Die KI hat diese Fähigkeiten wahrscheinlich gelernt, weil sie auf riesigen Mengen natürlicher Bilder trainiert wurde – genau wie unser Gehirn.

4. Was bedeutet das für uns?

Bisher haben wir Qualitäts-Metriken nur danach bewertet, ob sie mit menschlichen Bewertungen übereinstimmen. Das ist wie ein Test, bei dem man nur das Endergebnis sieht.
Diese Studie sagt: Nein, wir müssen auch den Prozess verstehen.

  • Wenn wir wissen, warum eine Metrik gut ist (weil sie das menschliche Sehen nachahmt), können wir bessere Video-Streaming-Dienste bauen.
  • Wir können erkennen, welche Metriken trügerisch sind (z. B. die, die zu viel auf feine Details achten, die wir gar nicht sehen).
  • Die Forscher haben ihre Werkzeuge als Open Source veröffentlicht. Das ist wie ein offenes Labor, in dem jeder zukünftige Entwickler seine neuen „Köche" testen kann, bevor er sie in die Küche schickt.

Zusammenfassend:
Diese Studie ist wie ein Augenarzt-Check für die Software, die unsere Bilder bewertet. Sie zeigt uns, welche Software wirklich „sieht" wie ein Mensch und welche nur Zahlen berechnet, ohne zu verstehen, was wir eigentlich sehen. Und das Ergebnis? Die neuen KI-Methoden sehen uns oft besser als die alten Regeln.