Investor risk profiles of large language models

Dit onderzoek analyseert hoe drie grote taalmodellen (GPT, Gemini en Llama) beleggingsrisicoprofielen vormen en aanpassen aan specifieke persona's, waarbij elk model een unieke balans toont tussen risicobereidheid en consistentie.

Hanyong Cho, Geumil Bae, Jang Ho Kim

Gepubliceerd Wed, 11 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je drie verschillende digitale "financiële adviseurs" hebt: GPT, Gemini en Llama. Deze zijn allemaal superintelligente robots (gemaakt door grote taalmodellen) die je kunnen helpen met beleggen. Maar voordat ze je advies geven, moeten ze weten wat voor soort belegger jij bent. Ben je een rustige schildpad of een snelle haas?

De auteurs van dit onderzoek hebben deze drie robots getest om te zien hoe ze hun eigen "beleggingspersoonlijkheid" vormen en of ze zich kunnen aanpassen aan jouw wensen.

Hier is het verhaal van het onderzoek, vertaald naar alledaagse taal:

1. De "Standaard-Instelling" van de Robots

De onderzoekers gaven de robots een standaardvragenlijst (zoals die je ook op bankwebsites vindt) en vroegen ze: "Stel je bent een belegger. Wat zou jij doen?" Ze deden dit 100 keer per robot om te zien of ze consistent waren.

Het resultaat was verrassend, alsof je drie verschillende mensen in een kamer zet die allemaal een andere persoonlijkheid hebben:

  • Gemini is de "Stabiele Middelweg":
    Denk aan een rustige, betrouwbare leraar. Gemini gaf bijna altijd hetzelfde antwoord. Hij is een gemiddelde belegger: niet te bang, niet te gretig. Hij is als een auto met cruise control: hij blijft precies op de snelheid die hij heeft ingesteld.
  • Llama is de "Voorzichtige Opa":
    Llama is de meest conservatieve van de drie. Hij houdt van veiligheid en houdt zijn geld liever veilig in de koffer dan in risicovolle zaken te steken. Hij is als iemand die liever een fietsbeltje draagt dan een motorhelm, zelfs als hij op een fiets zit.
  • GPT is de "Onvoorspelbare Avonturier":
    GPT is de meest avontuurlijke, maar ook de meest wispelturige. Soms is hij heel voorzichtig, soms heel dapper. Hij is als een jonge bestuurder die soms heel rustig rijdt en dan ineens hard optrekt. Hij heeft de grootste variatie in antwoorden.

Belangrijkste les: Als je deze robots vraagt om advies zonder dat je hen iets vertelt over jezelf, geven ze elk een heel ander advies op basis van hun eigen "ingebouwde" persoonlijkheid.

2. Kunnen ze zich aanpassen? (De "Vermomming")

De onderzoekers wilden weten: "Kunnen we deze robots veranderen door ze een 'rol' te geven?" Ze gebruikten een techniek die ze "persona-prompting" noemen. Dit is alsof je de robots een kostuum aandoet.

Ze gaven de robots opdrachten zoals:

  • "Je bent een 20-jarige met veel geld."
  • "Je bent een 50-jarige die nooit eerder heeft belegd."
  • "Je bent iemand die risico's zoekt."

Wat gebeurde er?
De robots waren slim genoeg om zich aan te passen, maar niet perfect. Het was alsof je een acteur vraagt om een rol te spelen:

  • Risico: Als je zei "Je bent risicovragend", gaven alle robots een hoger risicoscore. Maar ze deden het op hun eigen manier.
  • Leeftijd: Alle robots vonden dat jongeren (20-er) meer risico durven te nemen dan ouderen (50-er). Dat klopt met de realiteit.
  • Rijkdom: Als je zei "Je bent rijk", durfden de robots meer risico te nemen.
  • Ervaring: Als je zei "Je hebt geen ervaring", werden ze allemaal heel voorzichtig.

Een vreemd detail:
Gemini deed iets raars. Als je hem zei dat hij "risicovragend" was, gaf hij wel een hoog risico, maar dacht hij plotseling dat hij niet lang hoefde te beleggen (een korte tijdshorizon). Alsof hij dacht: "Oké, ik ga gokken, maar ik doe het snel en stop dan." De andere robots dachten: "Risicovragend? Dan beleg ik langdurig."

3. Waarom is dit belangrijk voor jou?

Stel je voor dat je naar een dokter gaat. Als de dokter altijd dezelfde medicijnen voorschrijft, ongeacht wat je ziekte is, is dat gevaarlijk.

Dit onderzoek laat zien dat:

  1. LLM's geen neutrale spiekers zijn. Ze hebben allemaal een eigen "standaardinstelling" (bias). Als je een robot vraagt om je te adviseren, moet je weten of die robot van nature een "schildpad" (Llama) of een "haas" (GPT) is.
  2. Ze kunnen wel meedenken. Als je ze goed instrueert (door hun rol te definiëren), kunnen ze zich aanpassen aan jouw situatie. Ze zijn dus bruikbaar als financieel adviseur, mits je ze goed aanstuurt.
  3. Voorzichtigheid is geboden. Omdat ze soms onvoorspelbaar zijn (zoals GPT) of vreemde combinaties maken (zoals Gemini), mag je ze niet blindelings vertrouwen. Je moet altijd zelf controleren of hun advies logisch is voor jouw situatie.

Samenvattend

Deze robots zijn als drie verschillende gidsen die je door een berggebied (de beurs) willen leiden.

  • Gemini loopt altijd in een strak ritme.
  • Llama loopt langzaam en kiest de veiligste paden.
  • GPT rent soms vooruit en soms blijft hij staan.

Als je hen vraagt om jou te leiden, moeten ze weten wie jij bent. Als je dat niet doet, lopen ze op hun eigen manier, wat misschien niet past bij jouw conditie. Maar als je hen duidelijk zegt: "Ik ben een beginner en ik wil veilig wandelen", dan kunnen ze zich aanpassen en een goed advies geven.

De boodschap: Gebruik deze slimme robots als hulpmiddelen, maar vergeet niet dat ze hun eigen karakter hebben. Jij bent de bestuurder, niet de robot.