Perception of Safety in Behavioral Health Crisis Units among Patients and Care Partners versus Artificial Intelligence (AI): A Multimethod Study

Diese multimethodische Studie zeigt, dass die wahrgenommene Sicherheit in Kriseneinheiten der Verhaltensgesundheit die Auswahl der Einrichtungen durch Patienten und Angehörige maßgeblich beeinflusst und dass KI-gestützte Werkzeuge trotz einiger Unterschiede in der Risikowahrnehmung wertvolle Unterstützung für die Gestaltung sicherer Umgebungen bieten können.

Jafarifiroozabadi, R.

Veröffentlicht 2026-04-07
📖 3 Min. Lesezeit☕ Kaffeepausen-Lektüre
⚕️

Dies ist eine KI-generierte Erklärung eines Preprints, das nicht peer-reviewed wurde. Dies ist kein medizinischer Rat. Treffen Sie keine Gesundheitsentscheidungen auf Grundlage dieses Inhalts. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie stehen vor der Entscheidung, in welches Hotel Sie einchecken. Aber dieses Hotel ist kein normales Hotel, sondern ein spezieller Ort, an dem Menschen in einer seelischen Krise Hilfe suchen – ein sogenanntes Krisenzentrum.

Die Forscher dieser Studie haben sich gefragt: Was macht ein solches Zentrum für Patienten und ihre Angehörigen „sicher" und vertrauenswürdig? Und noch spannender: Kann eine künstliche Intelligenz (KI) das genauso gut erkennen wie ein menschliches Auge?

Hier ist die Geschichte der Studie, einfach erklärt:

1. Der Test: Die Wahl zwischen zwei „Hotels"

Die Forscher haben eine große Umfrage gemacht. Sie zeigten den Teilnehmern Bilder von verschiedenen Krisenzentren. Es war wie ein Online-Quiz: „Welches dieser Zimmer würden Sie bevorzugen?"

Die Bilder zeigten unterschiedliche Details: Manche Räume sahen sehr sicher aus, andere hatten kleine „Fallstricke" (wie Ecken, an denen man sich verletzen könnte, oder Dinge, die als Seile missbraucht werden könnten). Die Teilnehmer mussten sich entscheiden, wohin sie gehen würden.

2. Der menschliche Blick vs. der Roboter-Blick

Dann kam der spannende Teil. Die Teilnehmer sollten auf den Bildern zeigen: „Hier sehe ich eine Gefahr!"
Gleichzeitig ließen die Forscher einen KI-Algorithmus (eine Art digitaler Sicherheitsdetektiv) dieselben Bilder analysieren. Diese KI war von Experten trainiert worden, um genau diese Gefahrenstellen zu finden.

Man kann sich das vorstellen wie einen Wettlauf zwischen einem erfahrenen Hausmeister und einem super-schnellen Scanner:

  • Der Hausmeister (der Patient) schaut sich das Zimmer an und sagt: „Das hier fühlt sich unsicher an, weil das Material der Wand zu hart ist."
  • Der Scanner (die KI) scannt das Bild und sagt: „Ich habe 3 potenzielle Gefahrenpunkte gefunden."

3. Was kam heraus?

Die Ergebnisse waren wie eine Landkarte, die zwei verschiedene Perspektiven zeigt:

  • Menschen sind vorsichtig: Wenn die Teilnehmer auf einem Bild viele Gefahren sahen, wollten sie dort nicht hin. Es war wie bei einem Restaurant: Wenn man auf dem Teller einen Fremdkörper sieht, bestellt man dort nicht mehr. Die Angst vor Verletzungen war der wichtigste Faktor bei der Entscheidung.
  • Der Scanner ist gut, aber nicht perfekt: Die KI und die Menschen waren sich in vielen Punkten einig. Wenn die KI eine Gefahr sah, sahen die Menschen sie oft auch.
  • Aber es gibt Unterschiede: Manchmal sahen die Menschen Dinge, die die KI übersehen hat. Zum Beispiel: Die KI sieht vielleicht einen Stuhl, aber der Mensch spürt: „Das Material fühlt sich kalt und bedrohlich an" oder „Diese Ecke ist zu dunkel". Die KI kennt das „Gefühl" eines Raumes noch nicht ganz so gut wie ein Mensch.

4. Die große Erkenntnis

Die Studie sagt uns: Künstliche Intelligenz ist ein super Werkzeug, aber sie ersetzt noch nicht das menschliche Bauchgefühl.

Stellen Sie sich die KI wie einen sehr klugen Assistenten vor, der Ihnen hilft, unsichere Ecken zu finden, die Sie vielleicht übersehen. Aber am Ende ist es immer noch der Mensch (der Patient oder die Familie), der entscheiden muss: „Fühlt sich dieser Ort für mich sicher an?"

Fazit: Um Krisenzentren sicherer zu machen, sollten wir die KI nutzen, um die harten Fakten zu prüfen, aber wir müssen auch auf die Menschen hören, die den Raum wirklich erleben. Nur wenn beide zusammenarbeiten – der digitale Scanner und das menschliche Auge –, entstehen Orte, an denen sich Menschen wirklich sicher fühlen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →