IRIS: Intent Resolution via Inference-time Saccades for Open-Ended VQA in Large Vision-Language Models

Die Arbeit stellt IRIS vor, eine trainingsfreie Methode, die Echtzeit-Augenbewegungsdaten nutzt, um Mehrdeutigkeiten in offenen visuellen Frage-Antwort-Szenarien aufzulösen und die Antwortgenauigkeit bei mehrdeutigen Fragen in großen multimodalen Modellen mehr als verdoppelt.

Parsa Madinei, Srijita Karmakar, Russell Cohen Hoffing, Felix Gervitz, Miguel P. Eckstein

Veröffentlicht 2026-02-19
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das Problem: Der verwirrte Roboter

Stell dir vor, du hast einen sehr klugen, aber etwas verwirrten Roboter-Koch (das ist das KI-Modell, ein sogenanntes "Large Vision-Language Model" oder VLM). Du zeigst ihm ein Foto von einer Küche, in der drei verschiedene Tassen stehen: eine rote, eine blaue und eine grüne.

Du fragst den Roboter: "Was ist das?"

Der Roboter ist ratlos. Er sieht drei Tassen. Soll er über die rote sprechen? Die blaue? Oder die grüne? Da er nicht weiß, worauf du genau schaust, rät er oft falsch oder gibt eine vage Antwort. Das nennt man Referenz-Ambiguität (Verweis-Unschärfe). Der Roboter kennt deine Absicht nicht.

Die Lösung: IRIS – Der Blick als Zeigefinger

Die Forscher haben eine Methode namens IRIS entwickelt. Das Besondere daran: Sie müssen den Roboter nicht neu programmieren oder "lernen" lassen. Stattdessen nutzen sie etwas, das wir Menschen von Natur aus tun: Wir schauen hin, bevor wir sprechen.

Stell dir IRIS wie einen unsichtbaren Zeigefinger vor, den wir mit unseren Augen machen.

  1. Der Tanz der Augen: Wenn du das Foto ansiehst und dir überlegst, was du fragen willst, bewegen sich deine Augen. Du fixierst (starrst kurz) auf das Objekt, das du meinst.
  2. Der Timing-Trick: Die Forscher haben herausgefunden, dass die Augenbewegungen genau in dem Moment am wichtigsten sind, wenn du den Mund öffnest, um die Frage zu stellen (oder kurz davor).
  3. Die Übertragung: IRIS nimmt diese Augenbewegungen auf und malt kleine weiße Kreuze auf das Bild, genau dort, wo deine Augen kurz verweilt haben, als du die Frage stellte.
  4. Der Aha-Effekt: Der Roboter sieht das Bild mit den weißen Kreuzen. Er denkt: "Ah! Der Mensch schaut auf die rote Tasse, als er 'Was ist das?' sagt. Also meine ich die rote Tasse!" Und plötzlich ist die Antwort korrekt.

Warum ist das so genial?

  • Kein neues Training nötig: Man muss den Roboter nicht mühsam neu unterrichten. Man gibt ihm einfach einen zusätzlichen Hinweis (die Augenpunkte) zur gleichen Zeit, in der er das Bild sieht. Es ist, als würdest du einem Freund nicht nur eine Frage stellen, sondern ihm auch gleichzeitig auf die Schulter tippen, damit er genau weiß, worüber ihr redet.
  • Es funktioniert bei fast allen: Die Forscher haben das mit 10 verschiedenen, sehr fortschrittlichen KI-Modellen getestet. Bei allen hat es funktioniert. Es ist wie ein universeller Schlüssel, der bei jedem Schloss passt.
  • Nur wenn es nötig ist: Wenn die Frage eindeutig ist (z. B. nur eine Tasse auf dem Bild), bringt der Blick nichts, aber er schadet auch nicht. Wenn die Frage aber unklar ist (drei Tassen), verdoppelt sich die Trefferquote der KI fast! Sie springt von ca. 35 % richtigen Antworten auf über 77 %.

Wie haben sie das getestet?

Die Forscher haben 10 Menschen gebeten, vor einem Bildschirm zu sitzen.

  • Sie sahen Bilder mit vielen ähnlichen Objekten (z. B. mehrere Autos, mehrere Hunde).
  • Sie sollten laut eine Frage stellen ("Was ist das?").
  • Währenddessen hat eine Kamera ihre Augenbewegungen millimetergenau verfolgt.
  • Dann hat die KI geantwortet.

Das Ergebnis war klar: Wenn die KI sah, wohin die Menschen kurz vor dem Sprechen geschaut haben, verstand sie die Frage perfekt.

Zusammenfassung in einer Metapher

Stell dir vor, du bist in einem großen, vollen Raum mit 100 Menschen. Du rufst: "Hey, du da!"
Niemand weiß, wen du meinst. Alle schauen sich verwirrt um.

Jetzt stell dir vor, du hast eine Laserpointer-Brille auf. Wenn du "Hey, du da!" rufst, zeigt dein Laser genau auf die Person, die du meinst. Plötzlich weiß jeder im Raum genau, wen du ansprichst.

IRIS ist diese Laserpointer-Brille für KI. Es nutzt unsere natürlichen Augenbewegungen, um der KI zu zeigen, worauf wir uns gerade konzentrieren, und löst so das Rätsel, was wir eigentlich meinen wollen.

Warum ist das wichtig für die Zukunft?

In Zukunft werden wir vielleicht Brillen (wie bei Virtual Reality) tragen, die unsere Augen verfolgen. Wenn du dann mit einer KI sprichst, wird sie nicht mehr raten müssen, welches Objekt du meinst. Sie wird einfach wissen: "Ah, er schaut auf das Auto, also will er über das Auto wissen." Das macht die Kommunikation zwischen Mensch und Maschine viel natürlicher und fehlerfreier.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →