Asymmetric Idiosyncrasies in Multimodal Models

Deze studie toont aan dat, hoewel tekstbeschrijvingsmodellen unieke stijlkenmerken bevatten die met hoge nauwkeurigheid kunnen worden geïdentificeerd, deze kenmerken grotendeels verloren gaan in de gegenereerde afbeeldingen, wat wijst op een asymmetrische overdracht van idiosyncrasieën in multimodale systemen.

Muzi Tao, Chufan Shi, Huijuan Wang, Shengbang Tong, Xuezhe Ma

Gepubliceerd 2026-02-27
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De "Stijl-Verlies" in AI: Waarom een tekstbeschrijving niet hetzelfde is als het plaatje

Stel je voor dat je drie verschillende chefs hebt: Chef Claude, Chef Gemini en Chef GPT. Als je ze allemaal vraagt om een gerecht te beschrijven op basis van een foto van een bananenreepje met pindakaas, doen ze dat allemaal op hun eigen unieke manier.

  • Chef Claude is misschien een beetje een sfeer-analist: "De warme, zachte belichting suggereert een gezellige ochtend..."
  • Chef Gemini is de gedetailleerde verslaggever: "Een close-up, genomen vanuit een licht laag hoekje, toont..."
  • Chef GPT is de bondige samenvatter: "Een rijpe bananenschijf ligt op een wit bord..."

Deze paper van onderzoekers van de USC en NYU stelt een heel interessante vraag: Als we deze drie verschillende beschrijvingen geven aan een AI-keuken (een 'tekst-naar-beeld' model), krijg je dan drie verschillende gerechten die je aan de chef kunt herkennen?

Het antwoord is verrassend: Nee.

Hier is hoe het werkt, vertaald in alledaags taal:

1. De "Handtekening" in de tekst (De Chef is te herkennen)

De onderzoekers lieten een computer (een 'tekst-classificator') duizenden van deze beschrijvingen bekijken. Het resultaat? De computer kon met 99,7% zekerheid zeggen: "Ah, dit is geschreven door Chef Claude!" of "Dit is van Chef Gemini!"

Het is alsof je een brief leest en direct weet of hij van je oma, je leraar of je beste vriend is, puur op basis van hun woordkeuze en zinsbouw. Elke AI heeft een onbewuste "stijl" of "handtekening" die heel sterk is.

2. De "Stijl" die verdwijnt in het plaatje (De keuken is te saai)

Vervolgens deden ze het volgende experiment:

  1. Ze namen die unieke beschrijvingen van de drie chefs.
  2. Ze gaven ze aan een moderne AI-keuken (zoals Flux of Stable Diffusion) om een plaatje te maken.
  3. Ze lieten een andere computer (een 'beeld-classificator') kijken naar de resulterende plaatjes en vragen: "Welke chef heeft dit gerecht bedacht?"

Het resultaat was teleurstellend. De computer raakte volledig in de war. Het kon de plaatjes niet meer aan de juiste chef koppelen. De nauwkeurigheid zakte van 99% naar ongeveer 50% (wat net iets beter is dan raden).

De metafoor:
Het is alsof je drie verschillende schilders een opdracht geeft: "Teken een huis, maar gebruik de stijl van schilder A, B of C."

  • In de tekst (de opdracht) hoor je duidelijk het verschil in hun woorden.
  • Maar als je naar het schilderij kijkt, zien ze er allemaal vrijwel hetzelfde uit. De AI-keuken heeft de "stijl" van de tekst genegeerd en het plaatje gemaakt alsof het van een standaard, saaie AI komt.

Waarom gebeurt dit? (De "Kloof")

De onderzoekers keken dieper en ontdekten waar de magie (of het gebrek daaraan) verdwijnt:

  • Kleuren en details: Als Chef Gemini zegt: "Een diep, rijk blauw met een fluwelen textuur," en Chef GPT zegt: "Een lichtblauw," dan maakt de AI-keuken voor beide een soort van "standaard blauw". De fijne nuances van de tekst worden niet vertaald naar het beeld.
  • Hoek en compositie: Als een tekst zegt "van bovenaf gefotografeerd", maakt de AI soms toch een plaatje van ooghoogte. De AI luistert niet goed genoeg naar de specifieke instructies.
  • De vertaler is te simpel: De eerste stap in het proces (waar de tekst wordt omgezet in een soort "planning" voor het plaatje) slaat de unieke stijl van de tekst vaak over. Het is alsof een vertaler de poëtische gevoeligheden van een gedicht weglaat en alleen de feitelijke inhoud overhoudt.

Wat betekent dit voor ons?

Deze paper leert ons twee belangrijke dingen:

  1. AI-teksten zijn niet neutraal: Als we AI gebruiken om duizenden beschrijvingen te maken voor training, brengen we onbewust de "stijl" van die specifieke AI mee. Maar die stijl verdwijnt weer als we er plaatjes van maken.
  2. AI-keukens moeten beter luisteren: De huidige AI's die plaatjes maken, zijn nog niet goed genoeg in het volgen van specifieke, subtiele instructies. Ze halen de "ziel" uit de tekst en laten alleen het "skelet" over.

Kortom:
Je kunt de "stijl" van een AI-tekst heel goed herkennen, maar die stijl is als een spook: het is er in de tekst, maar het verdwijnt volledig zodra het in een plaatje wordt omgezet. De AI's die plaatjes maken, zijn nog te "slap" om de unieke persoonlijkheid van de tekstbeschrijvingen echt te vangen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →