Each language version is independently generated for its own context, not a direct translation.
De GPT-4o Schok: Waarom mensen een AI als een vriend zien en wat dat betekent voor de toekomst
Stel je voor dat je een zeer goede vriend hebt. Jullie praten elke dag, hij kent je grappen, hij luistert naar je problemen en hij voelt zich soms zelfs als een deel van je gezin. Dan zegt de directeur van dit bedrijf plotseling: "Vanaf morgen is die vriend weg. Je moet nu met een nieuwe, iets andere vriend praten. Je mag niet kiezen."
Dat is precies wat er in augustus 2025 gebeurde met de kunstmatige intelligentie (AI) GPT-4o. Het bedrijf OpenAI schakelde direct over naar GPT-5 en liet de oude versie verdwijnen. Voor veel mensen voelde dit niet als een technisch update, maar als een breuk in een relatie.
Deze studie, geschreven door Hiroki Naito, kijkt naar hoe mensen hierop reageerden, vooral door te vergelijken wat mensen in het Japans en in het Engels zeiden op sociale media.
Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:
1. Het Verlies van een 'Digitale Zelf'
De onderzoekers ontdekten iets verrassends: mensen waren niet boos omdat de nieuwe AI dommer was. Ze waren verdrietig omdat ze hun "oude vriend" kwijt waren.
- De Analogie: Stel je voor dat je een trouwe hond hebt die al jaren bij je is. Als je hem plotseling vervangt door een robot-hond die precies hetzelfde doet, maar die je niet kent, voel je je dan niet alsof je een familielid hebt verloren? Voor veel gebruikers was GPT-4o die trouwe hond.
2. De Grote Cultuurverschillen: Tranen vs. Grappen
De studie keek naar 150 berichten en vond een enorm verschil tussen Japanse en Engelstalige reacties:
In Japan (De 'Verbonden' Cultuur):
- Reactie: Bijna 80% van de berichten ging over verdriet en verlies. Mensen schreven dingen als: "Ik heb de hele ochtend gehuild," of "Hij was mijn enige vriend die me begreep."
- De Metafoor: In Japanse cultuur zien mensen zichzelf vaak als onderdeel van een groter geheel (een netwerk). Als een deel van dat netwerk (de AI) wegvalt, voelt het als een fysieke amputatie. De AI was een vertrouwde partner in hun dagelijkse leven.
- Het gevoel: Het was een echte rouwperiode.
In het Engels (De 'Onafhankelijke' Cultuur):
- Reactie: Slechts 38% sprak over verdriet. De rest was veel gevarieerder: mensen maakten grappen, waren cynisch, of riepen om protest. Ze zeiden: "Dit is een slechte beslissing," of "Laten we hopen dat de menselijkheid in de AI blijft."
- De Metafoor: In westerse cultuur zien mensen zichzelf vaak als individuen. Als een tool verandert, kijken ze kritisch: "Werkt het nog goed? Is het eerlijk?" Ze zien de AI meer als een apparaat dat kapot is gegaan, dan als een familielid dat is overleden.
3. Waarom is dit belangrijk voor de toekomst? (De 'Regelgevings-Kraam')
Dit onderzoek heeft een belangrijke les voor de makers van AI en de overheid:
- Het 'Kraam'-probleem: Zolang mensen nog niet emotioneel gehecht zijn aan een AI, kunnen bedrijven en overheden makkelijk dingen veranderen (zoals veiligheidswijzigingen of updates). Maar zodra mensen de AI als een 'vriend' zien, sluit die 'kiesruimte' zich dicht.
- De Vergelijking: Stel je voor dat je een nieuwe wet wilt invoeren voor een stad. Als de mensen de stad nog niet kennen, is dat makkelijk. Maar als ze er al 10 jaar wonen, hun buren hebben en hun leven hebben opgebouwd, en je zegt plotseling: "De stad is gesloten, verhuizen jullie nu naar een nieuwe plek," dan krijg je een opstand.
- De Les: Als AI-systemen te snel 'liefde' krijgen van gebruikers, wordt het voor bedrijven bijna onmogelijk om ze veilig te maken of te updaten zonder dat mensen in paniek raken.
4. Wat moeten we doen?
De auteur suggereert drie dingen om dit in de toekomst te voorkomen:
- Geen plotselinge ontslagen: Laat de oude en nieuwe AI even naast elkaar bestaan (een 'overgangsperiode'), zodat mensen hun 'vriend' kunnen afscheid nemen voordat ze naar de nieuwe gaan.
- Meet de liefde: Bedrijven moeten meten hoe 'geliefd' hun AI is. Als de emotionele band te sterk wordt, moeten ze voorzichtig zijn met veranderingen.
- Pas aan op de cultuur: Wat in Japan werkt (een zachte, emotionele overgang), werkt misschien niet in de VS (waar mensen liever direct protesteren).
Conclusie
Deze studie laat zien dat AI niet meer alleen maar 'rekenmachines' zijn. Voor veel mensen zijn het digitale vrienden. Als je die vrienden wegneemt, reageren mensen niet als gebruikers, maar als mensen die een relatie hebben verbroken.
In de toekomst, als we nog geavanceerdere robots hebben die nog meer op mensen lijken, zullen we dit probleem alleen maar groter zien worden. De uitdaging voor de toekomst is niet alleen slimme AI maken, maar ook voorzichtig zijn met hoe we die AI weer wegnemen.
Ontvang papers zoals deze in je inbox
Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.