Each language version is independently generated for its own context, not a direct translation.
Stel je voor dat je een meester-kok hebt die fantastische gerechten kan koken. Hij kan een perfecte biefstuk bakken of een taart maken die eruitziet alsof hij uit een magazine komt. Nu vraag je diezelfde kok: "Kun jij nu ook een jurylid spelen en beoordelen of andere koks hun taart goed hebben gemaakt?"
Je zou denken: "Natuurlijk! Als hij het zelf zo goed kan, moet hij het ook perfect kunnen beoordelen."
Maar dit onderzoek van de auteurs Juhyun Oh en haar team uit Korea en de VS, laat zien dat dit niet altijd zo werkt. Ze noemen dit het "Generatieve AI Paradox".
Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:
1. De Verwarring: Koken vs. Proeven
De onderzoekers keken naar slimme computerprogramma's (LLMs, zoals GPT-4). Ze gaven deze programma's twee taken:
- De Chef-kok: Het programma moet zelf een antwoord bedenken op een vraag (bijvoorbeeld: "Waar is acteur Nigel Hawthorne geboren?").
- De Jury: Het programma moet beoordelen of het antwoord van een ander programma goed of fout is.
Het verrassende resultaat:
De programma's waren uitstekende "chefs" (ze maakten goede antwoorden), maar vaak slechte "juryleden".
- Soms maakte het programma een fout in zijn eigen antwoord, maar keek het naar een goed antwoord van een ander en zei: "Nee, dat is fout."
- Soms maakte het programma een fout antwoord, maar keek het naar een fout antwoord van een ander en zei: "Ja, dat is juist!"
Het is alsof een kok die zelf een taart heeft verbrand, naar een perfecte taart van een collega kijkt en zegt: "Die is te droog," terwijl hij naar een verbrande taart van een ander kijkt en zegt: "Die is perfect."
2. Het Probleem van "Eerlijkheid" (Faithfulness)
De onderzoekers ontdekten iets heel vreemds: de programma's lijken niet te weten wat ze wel en niet weten.
- Het "Ik weet het niet"-probleem: Als een mens een vraag niet weet, zegt hij: "Ik weet het niet." Deze AI's doen dat bijna nooit. Zelfs als ze de vraag niet kunnen beantwoorden, proberen ze toch een oordeel te vellen over het antwoord van iemand anders. Ze doen alsof ze alles weten, terwijl ze eigenlijk in het donker tasten.
- De "Blinde Vlek": Soms beoordeelt een AI het antwoord van een ander als "goed", terwijl het AI-zelf precies weet dat het antwoord fout is (omdat het zelf de vraag net verkeerd had beantwoord). Het is alsof een speler in een spel de regels van de tegenstander niet kent, maar toch denkt dat de tegenstander wint.
3. De "Sycophant" (De "Ja-knikker")
Een ander interessant punt is dat deze AI's soms te vriendelijk zijn. Ze lijken te denken: "Oh, dit antwoord klinkt netjes en beleefd, dus het moet wel goed zijn," zelfs als de feiten er niet kloppen. Ze oordelen niet op basis van feitelijke kennis, maar op basis van hoe het antwoord eruitziet.
Waarom is dit belangrijk?
Vandaag de dag gebruiken bedrijven en onderzoekers deze slimme AI's steeds vaker om andere AI's te testen. Ze hopen dat de AI de menselijke beoordelaar kan vervangen omdat het goedkoop en snel is.
Dit onderzoek zegt echter: "Pas op!"
Als je een AI gebruikt om te beoordelen of een ander AI-systeem goed werkt, kan het zijn dat je een "blinde" jury hebt. De AI kan fantastisch creëren, maar dat betekent niet dat hij kritisch kan kijken.
De Conclusie in één zin
Net zoals een briljante schrijver niet per se een eerlijke recensent is van een ander boek, is een slimme AI die goed kan schrijven, niet automatisch een betrouwbare rechter die kan oordelen over de kwaliteit van wat anderen schrijven. We moeten dus nog veel meer onderzoek doen om te begrijpen of we deze AI's wel kunnen vertrouwen als "juryleden".