Evaluating Large Language Models for Assessment of Psychosis Risk

Deze studie toont aan dat grote taalmodellen (LLMs) klinische interviewtranscripties effectief kunnen analyseren om het risico op psychose te beoordelen, waardoor schaalbare en nauwkeurige hulpmiddelen voor vroege detectie mogelijk worden.

Zhu, T., Tashevski, A., Taquet, M., Azis, M., Jani, T., Broome, M. R., Kabir, T., Minichino, A., Murray, G. K., Nour, M. M., Singh, I., Fusar-Poli, P., Nevado-Holgado, A., McGuire, P., Oliver, D.

Gepubliceerd 2026-04-04
📖 5 min leestijd🧠 Diepgaand
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Hoe slimme computers kunnen helpen bij het opsporen van psychosen (in gewone mensentaal)

Stel je voor dat je een zeer ervaren detective bent die moet zoeken naar een heel zeldzame, maar gevaarlijke "zieke geest" (een psychose) voordat deze echt losbreekt. Deze detective moet urenlang luisteren naar verhalen van mensen, waarbij hij op zoek gaat naar subtiele hints in wat ze zeggen. Het probleem? Er zijn maar heel weinig detectives die dit kunnen, en het kost ze enorm veel tijd. Daardoor worden veel mensen pas te laat ontdekt, wanneer de problemen al groot zijn.

In dit onderzoek hebben de auteurs een nieuw idee getest: kunnen we slimme computers (Large Language Models of LLM's) trainen om deze detective-taak over te nemen?

Hier is hoe ze het hebben aangepakt, vertaald naar een verhaal:

1. De Uitdaging: De "Noodhulp" voor de Detective

Psychosen beginnen vaak met een "waarschuwingsfase" (zogenaamde Clinical High Risk). Mensen hebben dan al vreemde gedachten of horen soms geluiden, maar het is nog niet volledig uit de hand gelopen. Als je ze nu helpt, kun je een ernstige crisis voorkomen.
Maar om iemand in deze fase te vinden, moet een specialist urenlang een gesprek voeren en elk woord analyseren. Dit is als het zoeken naar een speld in een hooiberg, maar dan met je ogen dicht. Er zijn te weinig specialisten en te veel mensen die hulp nodig hebben.

2. De Oplossing: De "Digitale Assistent"

De onderzoekers hebben 11 verschillende soorten "AI-detectives" (grote taalmodellen) getest. Ze gaven hen de transcripties (de geschreven versies) van echte gesprekken.

  • De taak: De computer moest lezen wat de persoon zei en vervolgens zeggen: "Is dit een teken van een psychose?" en "Hoe ernstig is het?"
  • De methode: Ze gaven de computers een soort "recept" (prompt) met duidelijke regels, net zoals een kok een recept volgt om een gerecht te maken. Ze vroegen de computer zelfs om uit te leggen waarom ze een bepaalde score gaven (zoals een detective die zijn bewijs opschrijft).

3. De Resultaten: Wie is de beste detective?

Ze testten de computers op 678 gesprekken. Hier kwamen interessante dingen naar boven:

  • De "Giganten" winnen (maar zijn zwaar): De grootste en slimste computers (zoals Llama-3.3-70B) waren het beste. Ze hadden een 80% kans om iemand met een risico correct te identificeren. Ze misten bijna niemand (ze waren heel voorzichtig), maar ze gaven soms ook wel eens een waarschuwing aan iemand die het niet nodig had (een "valse alarm").
    • Analogie: Dit is als een zeer gevoelige rookmelder. Hij piept bij de kleinste rookwolkje, zelfs als het alleen maar een boterham is die verbrandt. Voor een dokter is het beter om een valse alarm te hebben dan om een echte brand te missen.
  • De "Kleintjes" verrassen: De kleinere computers waren ook verrassend goed. Ze waren niet perfect, maar ze deden het bijna net zo goed als de giganten, terwijl ze veel minder stroom en kracht nodig hadden.
    • Analogie: Het is alsof je een kleine, wendbare scooter kunt gebruiken in plaats van een zware vrachtwagen om dezelfde boodschap te bezorgen. Soms is de scooter zelfs praktischer omdat hij makkelijker door smalle straatjes (beperkte computerkracht) past.
  • De "Hallucinaties" zijn zeldzaam: Een groot risico bij AI is dat ze dingen verzinnen (hallucineren). Gelukkig deden de computers dit maar in 3% van de gevallen. Als ze iets verzonnen, was het meestal dat ze iets te serieus namen (bijvoorbeeld: "Ik ben bang dat mijn buren mij haten" werd gezien als een teken van wantrouwen, terwijl het misschien gewoon een vervelende buurman was).

4. Is het eerlijk? (De "Rechtvaardigheids-Test")

De onderzoekers keken of de computers bepaalde groepen mensen (bijvoorbeeld jongeren, mensen van een andere etniciteit of uit een ander land) onterecht vaker of minder vaak als "risico" aanwezen.

  • Het goede nieuws: De computers waren vrij eerlijk. Ze maakten geen grote fouten op basis van leeftijd, geslacht of taal.
  • Het kleine probleem: De computers deden het soms iets anders in verschillende steden (bijvoorbeeld Londen vs. Melbourne). Dit komt waarschijnlijk doordat de gesprekken daar net iets anders verliepen, niet omdat de computer vooroordelen heeft.

5. Wat betekent dit voor de toekomst?

Dit onderzoek is als het vinden van een nieuwe, krachtige hulpkracht voor de psychiater.

  • De computer kan de eerste ronde van gesprekken lezen en een eerste inschatting geven.
  • De menselijke arts kijkt dan nog even mee ("mens-in-de-lus") om te bevestigen of het klopt.
  • Hierdoor kunnen veel meer mensen sneller hulp krijgen, zonder dat er duizenden nieuwe specialisten nodig zijn.

Kortom: De onderzoekers hebben bewezen dat slimme computers goed kunnen lezen tussen de regels door in gesprekken over mentale gezondheid. Ze zijn niet perfect, maar ze zijn een krachtig hulpmiddel om te voorkomen dat mensen in een psychotische crisis terechtkomen. Het is alsof we een extra paar ogen hebben gekregen om de waarschuwingssignalen eerder te zien.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →