Perception of Safety in Behavioral Health Crisis Units among Patients and Care Partners versus Artificial Intelligence (AI): A Multimethod Study

Deze multimethodestudie toont aan dat de waargenomen veiligheid een cruciale rol speelt bij de keuze voor crisiscentra voor geestelijke gezondheid, waarbij een combinatie van menselijke perceptie en AI-gestuurde risicobeoordeling waardevolle inzichten biedt voor het creëren van veiligere omgevingen.

Jafarifiroozabadi, R.

Gepubliceerd 2026-04-07
📖 3 min leestijd☕ Koffiepauze-leesvoer
⚕️

Dit is een AI-gegenereerde uitleg van een preprint die niet peer-reviewed is. Dit is geen medisch advies. Neem geen gezondheidsbeslissingen op basis van deze inhoud. Lees de volledige disclaimer

Each language version is independently generated for its own context, not a direct translation.

Titel: Hoe veilig voelen we ons? Mens versus Robot in Crisiscentra

Stel je voor dat je op zoek bent naar een veilige plek voor iemand die in een emotionele crisis zit. Je wilt een plek waar niemand zichzelf of anderen kan verwonden. Maar hoe kies je die plek? Kijk je naar de cijfers, of naar je eigen gevoel? En wat als een slimme computer (kunstmatige intelligentie of AI) meekijkt?

Dit onderzoek doet precies dat: het vergelijkt wat mensen voelen dat veilig is, met wat een computer berekent dat veilig is.

Het Experiment: Een Digitale Keuzestelling
De onderzoekers hebben een grote online enquête gemaakt, alsof het een spelletje is. Mensen kregen foto's te zien van verschillende crisiscentra. Op sommige foto's stonden gevaarlijke dingen (zoals touwen of scherpe hoeken waar iemand zich aan kan verwonden), op andere niet.

Deelnemers moesten kiezen: "Welke van deze plekken zou jij kiezen voor een geliefde?"
Tegelijkertijd moesten ze op de foto's wijzen waar ze gevaar zagen.

De Robot in de Hoek
Naast de mensen keek ook een slimme AI mee. Deze computer was getraind door experts om gevaarlijke objecten op foto's te herkennen, net als een zeer oplettende bewakingscamera die alles scant.

Wat Vonden Ze?

  1. Het Menselijke Oog is een Krachtige Kompasnaald:
    Het bleek dat als mensen op een foto veel gevaarlijke dingen zagen, ze die plek direct afwezen. Het was alsof je een huis kiest: als je ziet dat de ramen kapot zijn en de deur niet sluit, ga je er niet wonen, zelfs als de eigenaar zegt dat het "technisch veilig" is. Mensen kiezen voor hun gevoel van veiligheid.

  2. Mensen en Robot: Vrienden met Verschillende Meningen:
    De AI en de mensen waren het vaak eens over de grote gevaren. Maar er was een belangrijk verschil:

    • De AI is als een zeer strenge inspecteur die alleen kijkt naar de lijst: "Is er een touw? Ja. Is er een raam dat open kan? Ja."
    • De Mensen kijken verder. Ze zien niet alleen het touw, maar ook hoe het touw hangt, van welk materiaal de muren zijn, of er iets raars aan de muur hangt dat de computer niet kent. Mensen voelen gevaar soms aan de "sfeer" of details die een computer nog niet leert.

De Grote Les
Het onderzoek concludeert dat we de AI niet moeten zien als de enige waarheid, maar als een superhandige assistent.

Stel je voor dat je een huis bouwt. De AI is de calculator die precies rekent of de balken sterk genoeg zijn. Maar de mens is de bewoner die zegt: "Deze kamer voelt koud en onveilig, ook al zijn de balken sterk."

Conclusie in Eenvoudige Woorden:
Om crisiscentra echt veilig te maken, moeten we de slimme rekenkracht van computers combineren met het menselijke gevoel voor veiligheid. De computer helpt om de grote gevaren te vinden, maar de mens moet vertellen welke kleine details het verschil maken tussen een plek waar je je veilig voelt, en een plek waar je je angstig voelt. Samen maken ze de beste keuze.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →