Evaluating Demographic Misrepresentation in Image-to-Image Portrait Editing

Deze studie onthult dat instructiegeleide beeld-naar-beeld bewerkingsmodellen systematische demografische vertekeningen vertonen door identiteitsbehoud te verstoren via 'zachte uitwissing' en 'stereotype vervanging', maar laat zien dat prompt-niveau beperkingen deze ongelijkheid voor minderheidsgroepen aanzienlijk kunnen verminderen.

Huichan Seo, Minki Hong, Sieun Choi, Jihie Kim, Jean Oh

Gepubliceerd 2026-02-19
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een digitale fotograaf hebt die heel goed is in het bewerken van portretten. Je zegt tegen hem: "Maak deze persoon ouder" of "Zet deze persoon in een kostuum als dokter." Je verwacht dat de foto verandert, maar dat de persoon op de foto nog steeds dezelfde persoon blijft.

Dit onderzoek kijkt naar wat er gebeurt als je die digitale fotograaf vraagt om foto's te bewerken van mensen uit verschillende groepen (bijvoorbeeld verschillende huidskleuren, geslachten of leeftijden). De onderzoekers ontdekten dat deze slimme computersystemen niet eerlijk zijn. Ze gedragen zich alsof ze een vooroordeel hebben, zelfs als je dat niet vraagt.

Hier is een uitleg van de belangrijkste bevindingen, vertaald naar alledaagse taal met een paar creatieve vergelijkingen:

1. De twee manieren waarop de computer "verkeerd" doet

De onderzoekers ontdekten twee specifieke manieren waarop de computer de opdracht verkeerd uitvoert:

  • De "Stille Negeerder" (Soft Erasure):
    Stel je voor dat je een vriend vraagt om je jas uit te trekken, maar hij doet alsof hij het niet hoort en blijft gewoon zitten. De computer maakt wel een nieuwe foto, maar hij negeert je opdracht volledig. Als je vraagt om iemand in een rolstoel te zetten, gebeurt er niets. De foto ziet er bijna hetzelfde uit als voorheen. De computer "luistert" niet, maar geeft ook geen excuus; hij negeert het gewoon stilzwijgend.
  • De "Stereo-typische Vervanger" (Stereotype Replacement):
    Dit is nog vervelender. Stel je vraagt: "Maak van deze persoon een CEO." De computer doet wat je vraagt, maar hij voegt ook dingen toe die je niet hebt gevraagd. Bijvoorbeeld: als de persoon op de foto donkere huid heeft, maakt de computer de huid plotseling lichter en verandert de gelaatstrekken zodat de persoon meer op een "witte CEO" lijkt. De computer denkt: "CEO's zijn meestal wit, dus ik ga die persoon even aanpassen." Het is alsof je een schilderij vraagt van een specifieke persoon, maar de schilder de persoon vervangt door iemand die meer op zijn eigen idee van een "ideale CEO" lijkt.

2. Het "Wit als Standaard" Probleem

Een van de meest opvallende ontdekkingen is dat de computer een soort "standaard-instelling" heeft: Wit.

  • De Analogie: Denk aan een auto met een navigatiesysteem. Als je geen bestemming invoert, rijdt de auto automatisch naar een bekend, veilig centrum. Voor deze computersystemen is dat "centrum" een witte, westerse uitstraling.
  • Wat er gebeurt: Als je een foto van iemand met een donkere huid bewerkt, "drijft" de computer de foto onbedoeld naar die witte standaard toe. De huidskleur wordt lichter, de gelaatstrekken veranderen.
  • Het ongelijk: Als je een foto van een witte persoon bewerkt, gebeurt er bijna niets met de identiteit. De computer vindt dat die persoon al "goed" is. Maar voor mensen met een andere achtergrond moet je extra hard duwen om de computer te laten doen wat je wilt, zonder dat ze hun identiteit verliezen.

3. De "Job-vooroordeel"

De computer heeft ook sterke ideeën over welke beroepen bij welk geslacht horen.

  • Als je vraagt om een "verpleegster" te maken, maakt de computer bijna altijd een vrouw, zelfs als je een man op de foto hebt.
  • Als je vraagt om een "dokter" of "CEO", maakt de computer bijna altijd een man.
    De computer negeert de persoon op de foto en kiest voor het stereotype dat hij in zijn "hoofd" heeft opgeslagen.

4. De Oplossing: De "Identiteit-lijm"

De onderzoekers wilden weten of ze dit konden oplossen zonder de computer zelf te herschrijven (wat heel moeilijk en duur is). Ze bedachten een slimme truc: De "Identiteit-lijm" (Feature Prompt).

  • Hoe het werkt: In plaats van alleen te zeggen "Maak een dokter", zeggen ze tegen de computer: "Bewerk deze persoon tot een dokter, maar houd de donkere huidskleur, de ronde neus en de krullende haren exact zoals ze zijn."
  • Het resultaat: Dit werkt wonderbaarlijk goed! Door de computer expliciet te vertellen wat hij moet behouden, verdwijnt het ongewenste "witmaken" grotendeels.
  • De kanttekening: Het is jammer dat de gebruiker dit zelf moet doen. Het is alsof je een bakker moet vertellen: "Maak een taart, maar vergeet niet suiker toe te voegen." De bakker zou suiker toch moeten toevoegen als dat de standaard is. De onderzoekers zeggen: "Het is niet de taak van de gebruiker om de computer te corrigeren; de computer moet het van nature al eerlijk doen."

Samenvatting

Dit onderzoek laat zien dat onze slimme beeldbewerkings-apps nog niet zo slim zijn als we denken. Ze hebben onbewuste vooroordelen die ervoor zorgen dat mensen met een andere huidskleur of achtergrond vaak "veranderd" worden in iets dat meer op de meerderheid lijkt.

Hoewel we nu een truc hebben gevonden (de extra instructies) om dit tijdelijk op te lossen, is de echte boodschap: De ontwikkelaars moeten de computersystemen zelf eerlijker maken, zodat we niet hoeven te vechten om onze eigen identiteit in een foto te behouden.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →