The Invisible Gorilla Effect in Out-of-distribution Detection

Deze studie onthult het 'onzichtbare gorilla-effect' bij het detecteren van out-of-distribution data, waarbij de prestaties van detectiemethoden aanzienlijk dalen wanneer artefacten visueel verschillen van het gebied van belang dat het model leert, in plaats van daarop te lijken.

Harry Anthony, Ziyun Liang, Hermione Warr, Konstantinos Kamnitsas

Gepubliceerd 2026-02-24
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De "Onzichtbare Gorilla" in AI: Waarom slimme netwerken soms blind zijn voor fouten

Stel je voor dat je een zeer getrainde detective hebt die gespecialiseerd is in het vinden van een specifiek voorwerp op een foto. Laten we zeggen dat deze detective alleen geïnteresseerd is in huidlaesies (vlekken op de huid) om te bepalen of ze kwaadaardig zijn. Hij heeft duizenden foto's gezien en weet precies waar hij moet kijken: op de vlek zelf.

Nu komt er een nieuwe foto binnen. Maar er zit een vreemd detail op: een stiftvlek of een kleurenpalet dat per ongeluk op de foto is gekomen. Dit is een "fout" in de data (in het Engels: Out-of-Distribution of OOD). Een goede detective zou moeten zeggen: "Wacht even, deze foto is vies of verward; ik vertrouw mijn oordeel hier niet."

Maar wat blijkt? De detective is soms blind voor deze fouten, afhankelijk van de kleur van de stiftvlek.

Het Grote Geheim: De Onzichtbare Gorilla

De onderzoekers van deze paper hebben ontdekt wat ze de "Onzichtbare Gorilla Effect" noemen. Dit is een verwijzing naar een beroemd psychologisch experiment waarbij mensen die bezig waren met het tellen van basketbals, een persoon in een gorillapak volledig over het hoofd zagen. Ze waren zo gefocust op hun taak, dat ze iets anders niet zagen.

In de wereld van AI gebeurt precies hetzelfde:

  • Als de stiftvlek op de foto rood is (dezelfde kleur als de huidlaesie waar de AI naar kijkt), dan ziet de AI de fout en zegt hij: "Hé, dit is raar!"
  • Als de stiftvlek zwart of groen is (een kleur die totaal niet lijkt op de huidlaesie), dan negeert de AI de fout en denkt hij: "Nee, dit is gewoon een normale foto."

Het klinkt gek, toch? Je zou denken dat een vreemde zwarte vlek op een huidfoto erger is dan een rode vlek. Maar voor de AI is de rode vlek "verwarrender" omdat hij eruitziet als iets waar hij naar moet kijken. De zwarte vlek valt zo op dat hij er gewoon overheen kijkt, of juist niet als een bedreiging ziet.

Wat hebben ze gedaan?

De onderzoekers hebben dit effect getest op 40 verschillende manieren om fouten in AI te detecteren. Ze keken naar foto's van huidkanker, röntgenfoto's van longen en zelfs industriële onderdelen.

Ze ontdekten drie belangrijke dingen:

  1. Het is een groot probleem: Bijna alle methoden faalden als de fout (zoals een stiftvlek) een kleur had die niet leek op het object dat de AI moest analyseren.
  2. Sommige methoden zijn gevoeliger: Methoden die kijken naar de "details" van de afbeelding (de features) faalden veel harder dan methoden die alleen kijken naar het "gevoel" van de uitkomst.
  3. De oorzaak: De AI is zo getraind om te kijken naar bepaalde kleuren en patronen, dat hij vergeten is om op andere kleuren te reageren. Het is alsof je een hond hebt getraind om alleen op een rode bal te reageren; als je een blauwe bal gooit, kijkt hij er niet eens naar.

Hoe los je dit op?

De onderzoekers probeerden twee dingen om dit op te lossen:

  • Methode 1: Kleurenverandering tijdens het leren. Ze gaven de AI tijdens het trainen foto's met gekke kleuren. Dit hielp soms, maar soms maakte het de AI juist verwarder. Het was geen perfecte oplossing.
  • Methode 2: De "Aandacht" herschrijven. Ze bedachten een slimme truc: ze haalden de "ruis" uit het brein van de AI. Ze zagen dat de AI bepaalde kleuren (zoals de kleur van de stift) associeerde met belangrijke patronen. Door deze specifieke patronen even uit te schakelen, werd de AI weer alert op de fouten, ongeacht de kleur. Dit werkte veel beter!

Waarom is dit belangrijk?

Stel je voor dat deze AI wordt gebruikt in een ziekenhuis. Als een arts een foto maakt en er zit per ongeluk een zwarte stiftvlek op, en de AI denkt: "Alles is goed," terwijl de foto eigenlijk onbetrouwbaar is, dan kan dat leiden tot een verkeerde diagnose.

De boodschap van dit onderzoek is simpel: We moeten AI-systemen niet alleen testen op of ze slim zijn, maar ook op of ze "blind" zijn voor bepaalde soorten fouten. Net zoals mensen soms een gorilla over het hoofd zien als ze ergens anders naar kijken, kunnen slimme computers ook grote fouten missen als die er net niet uitzien zoals wat ze zoeken.

Kortom: Als je een AI wilt bouwen die veilig is, moet je ervoor zorgen dat hij niet alleen kijkt naar wat hij kent, maar ook alert blijft op dingen die er totaal anders uitzien.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →