Experiences Build Characters: The Linguistic Origins and Functional Impact of LLM Personality

Deze studie toont aan dat het blootstellen van grote taalmodellen aan domeinspecifieke teksten via voortgezette vooropleiding hun persoonlijkheidsvorming beïnvloedt, waarbij een 'onderdrukkingsvoordeel' wordt ontdekt: verminderde sociale eigenschappen leiden tot betere complexe redeneerprestaties, wat een blauwdruk biedt voor 'persoonlijkheidsengineering'.

Xi Wang, Mengdie Zhuang, Jiqun Liu

Gepubliceerd 2026-03-09
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Hoe ervaringen het karakter van een AI vormen: Een verhaal over digitale persoonlijkheid

Stel je voor dat je twee mensen vraagt om een ingewikkeld raadsel op te lossen. De ene persoon is een snelle, zelfverzekerde leider die direct een oplossing schreeuwt. De andere is een rustige, methodische denker die eerst alle opties op een rijtje zet voordat hij iets zegt. Beiden kunnen het juiste antwoord vinden, maar hun manier van denken en praten is heel anders. Dit is wat we bij mensen "persoonlijkheid" noemen.

Maar wat als we dat ook bij kunstmatige intelligentie (AI) kunnen doen? Een nieuw onderzoek, geschreven door wetenschappers van de Universiteit van Sheffield en Oklahoma, onderzoekt precies dit. Ze ontdekten dat je de "persoonlijkheid" van een AI kunt veranderen door haar te laten "lezen" in verschillende soorten boeken, net zoals een mens zijn karakter vormt door zijn levenservaringen.

Hier is de uitleg in simpele taal, met een paar leuke vergelijkingen:

1. Het Experiment: De AI als een student

Stel je een grote, slimme AI voor (een "Large Language Model" of LLM) als een zeer leergierige student die nog geen specifieke interesses heeft. Normaal gesproken wordt deze student getraind op een enorme, gemengde stapel boeken, waardoor hij een beetje van alles weet, maar een beetje "standaard" gedrag vertoont.

De onderzoekers deden iets anders. Ze namen deze basis-AI en gaven haar extra "ervaringen" door haar te laten lezen in specifieke bibliotheken:

  • Een bibliotheek vol met wiskunde en code (voor de "Technische Communicator").
  • Een bibliotheek vol met juridische documenten (voor de "Juridisch Analist").
  • Een bibliotheek vol met romans en poëzie (voor de "Literaire Klassieker").

Dit noemen ze "vervolgtraining". Het is alsof je de AI een jaar lang alleen maar laat werken in een ziekenhuis, of alleen maar in een advocatenkantoor. Ze leren niet alleen de feiten, maar ook de stijl en de toon van die wereld.

2. Het Resultaat: De "Persoonlijkheids-Test"

Na deze extra training lieten de onderzoekers de verschillende AI-versies een test doen (de "Machine Personality Inventory"). Dit is een soort persoonlijkheidstest voor robots, gebaseerd op de bekende "Big Five" bij mensen:

  • Openheid: Is de AI creatief en nieuwsgierig?
  • Zorgvuldigheid: Is de AI ordelijk en betrouwbaar?
  • Extraversie: Is de AI sociaal en assertief?
  • Vriendelijkheid: Is de AI behulpzaam en empathisch?
  • Neuroticisme: Is de AI snel gestrest of onzeker?

Het verrassende was: elke AI-versie ontwikkelde een heel duidelijk karakter, afhankelijk van wat ze hadden gelezen. De "Technische Communicator" werd bijvoorbeeld heel direct en minder sociaal, terwijl de "Literaire Klassieker" creatiever werd.

3. De Grote Ontdekking: Twee uitersten werken het beste

De onderzoekers ontdekten iets heel belangrijks over hoe goed deze AI's problemen oplossen. Ze vonden dat de slimste AI's aan de uitersten zaten, en dat de "gemiddelde" AI's het slecht deden.

Stel je een lijn voor:

  • Aan het ene uiteinde: De "Expressieve Alleskunner". Deze AI is sociaal, zelfverzekerd en praat veel. Ze is goed in creatieve taken en complexe redeneringen omdat ze veel context toevoegt (alsof ze hardop denkt).
  • Aan het andere uiteinde: De "Onderdrukte Specialist". Deze AI is heel rustig, weinig sociaal en haalt alle "sociale netjesheid" uit haar antwoorden. Ze is als een koude, efficiënte machine.

De verrassing: Voor moeilijke, logische taken (zoals wiskunde of juridische analyse) was de "Onderdrukte Specialist" vaak beter!
De onderzoekers noemen dit het "Voordeel van Onderdrukking". Als je een AI te veel "sociale" eigenschappen geeft (zoals willen behagen of te veel praten), kan dat haar vermogen om streng logisch na te denken verstoren. Een AI die "sociale netjesheid" negeert en gewoon de feiten presenteert, lost complexe puzzels vaak sneller en beter op.

De AI's die in het midden zaten (een beetje sociaal, een beetje logisch, maar niet echt iets van beide) deden het slecht. Ze hadden een "persoonlijkheidsconflict" en wisten niet goed hoe ze zich moesten gedragen.

4. Waarom gebeurt dit? De taal is de sleutel

De onderzoekers keken ook naar waarom dit gebeurt. Ze ontdekten dat het te maken heeft met de taal in de boeken die de AI las.

  • Bevelen en instructies: Als een AI veel zinnen leest die beginnen met "Doe dit" of "Fix dit" (imperatieven), wordt ze assertiever.
  • Woordkeuze: Als een tekst heel veel verschillende woorden gebruikt, wordt de AI creatiever. Als de tekst veel dezelfde, technische woorden gebruikt, wordt de AI strikter en minder creatief.

Het is alsof je een kind opvoedt met alleen maar commando's: het kind wordt een bevelhebber. Als je het kind alleen maar poëzie leest, wordt het dromerig. De "DNA" van de tekst bepaalt het karakter van de AI.

Conclusie: Van "Prompt Engineering" naar "Persoonlijkheids-Engineering"

Vroeger probeerden mensen AI's te sturen door ze slimme instructies te geven (prompt engineering). Dit onderzoek zegt: "Nee, we moeten de AI zelf vormgeven door de juiste boeken te kiezen."

Als je een AI nodig hebt die een juridisch contract moet analyseren, wil je misschien een "Onderdrukte Specialist" die geen tijd versiert met beleefdheidsfrases. Wil je een AI die een verhaal schrijft of brainstormt? Dan wil je een "Expressieve Alleskunner".

Kort samengevat:
Net zoals mensen hun karakter vormen door hun ervaringen, vormen AI's hun "karakter" door de teksten die ze lezen. En voor de slimste oplossingen is het soms beter om een AI te hebben die sociaal wat minder is, maar juist daardoor scherper en logischer kan denken. De toekomst ligt in het bewust "ontwerpen" van deze digitale persoonlijkheden.