Using AI for User Representation: An Analysis of 83 Persona Prompts

Diese Studie analysiert 83 Prompts aus 27 Forschungsarbeiten zur Generierung von User-Personas mittels Large Language Models und stellt fest, dass diese häufig auf einzelne, textbasierte und demografisch angereicherte Personas mit strukturiertem Output abzielen, wobei die Vielfalt der Ansätze und der Vergleich verschiedener Modelle bisher vernachlässigt werden.

Joni Salminen, Danial Amin, Bernard Jansen

Veröffentlicht 2026-03-04
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Titel: Wenn Computer Menschen erfinden – Eine Analyse von 83 „Befehlen" für KI

Stellen Sie sich vor, Sie sind ein Regisseur, der einen Film drehen will. Aber anstatt echte Schauspieler zu casten, bitten Sie einen sehr cleveren, aber manchmal etwas verwirrten Roboter, die Charaktere für Sie zu erfinden. Das ist im Grunde das, was Forscher in diesem Papier untersucht haben: Sie haben geschaut, wie Wissenschaftler Künstliche Intelligenz (KI) nutzen, um Personas zu erstellen.

Was ist eine Persona? Stellen Sie sich eine Persona wie einen perfekten Steckbrief vor. Es ist keine echte Person, sondern eine fiktive Figur, die eine ganze Gruppe von Nutzern repräsentiert (z. B. „die sparsame Studentin" oder „der technikbegeisterte Rentner"). Designer nutzen diese Figuren, um zu verstehen, was Menschen brauchen, ohne jeden einzelnen Menschen interviewen zu müssen.

Jetzt kommt die KI ins Spiel. Forscher geben der KI einen Befehl (einen sogenannten „Prompt"), und die KI schreibt die Geschichte dieser fiktiven Person. Das Team um Joni Salminen hat sich 83 dieser Befehle aus 27 wissenschaftlichen Artikeln angesehen, um herauszufinden, wie das funktioniert und wo die Fallstricke liegen.

Hier ist die Analyse in einfachen Worten, mit ein paar bildhaften Vergleichen:

1. Der Befehl ist alles (Die „Zauberformel")

Stellen Sie sich den Prompt wie eine Rezeptkarte vor. Wenn Sie einem Koch sagen: „Mach mir etwas Leckeres", bekommt er vielleicht eine Suppe. Wenn Sie sagen: „Mach mir eine scharfe Tomatensuppe mit Basilikum", bekommen Sie genau das.

  • Was die Forscher fanden: Die meisten Forscher geben der KI nur sehr einfache Rezepte. Oft wird nur eine einzige Figur pro Befehl erstellt. Das ist, als würde man für eine ganze Klasse nur einen Schüler zeichnen und dann sagen: „Das repräsentiert alle!"
  • Das Problem: Traditionell sollten Personas reichhaltig und detailliert sein (wie ein ganzer Roman über eine Person). Viele der KI-Befehle verlangen aber nur kurze, knappe Beschreibungen. Das ist wie wenn man von einem Koch nur ein paar Stichworte statt einem ganzen Gericht verlangt.

2. Text und Zahlen, aber kaum Bilder

Die meisten Personas, die die KI erstellt, bestehen aus Text und Zahlen (z. B. Name, Alter, Beruf).

  • Der Vergleich: Es ist, als würde man jemanden nur anhand seines Ausweises und einer Liste seiner Hobbys beschreiben.
  • Das Überraschende: Obwohl wir heutzutage Bilder lieben, bitten Forscher die KI nur sehr selten, ein Foto der fiktiven Person zu malen. Das ist, als würde man einen Charakter in einem Buch beschreiben, aber nie ein Bild von ihm zeigen, obwohl die KI das eigentlich könnte.

3. Die „Zahlen-Verliebtheit"

Fast alle Personas enthalten demografische Daten (Alter, Geschlecht, Wohnort).

  • Die Metapher: Die KI wird wie ein Personalausweis-Generator benutzt. Die Forscher wollen wissen: „Wie alt ist sie? Wo wohnt sie?"
  • Die Gefahr: Das ist gut für Statistiken, aber es fehlt oft die Tiefe. Eine gute Persona sollte nicht nur Daten sein, sondern auch Gefühle, Ängste und Träume haben. Die KI-Befehle fragen oft nur nach den trockenen Fakten.

4. Der „Domino-Effekt" bei komplexen Systemen

Einige Forscher nutzen nicht nur einen Befehl, sondern ganze Ketten von Befehlen.

  • Der Vergleich: Stellen Sie sich vor, Sie bauen ein Haus. Zuerst sagen Sie der KI: „Baue ein Fundament." Dann: „Baue Wände darauf." Dann: „Mache ein Dach."
  • Das Risiko: Wenn der erste Befehl (das Fundament) schief ist, wackelt das ganze Haus. Die Forscher nutzen oft bis zu 12 verschiedene Befehle hintereinander. Das macht das System sehr komplex. Wenn etwas schiefgeht, ist es schwer zu sagen, welcher Befehl das Problem verursacht hat. Es ist wie ein Turm aus Karten, der bei der kleinsten Bewegung umfällt.

5. Daten statt echter Menschen?

Ein großes Thema ist: Woher kommt das Wissen der KI?

  • Die Warnung: Oft gibt die KI einfach nur das aus, was sie in ihrer Trainingsdatenbank gelernt hat (ihr „Gedächtnis"). Das ist wie wenn ein Koch ein Gericht kocht, ohne echte Zutaten zu haben, sondern nur mit dem, was er sich aus dem Kopf gemerkt hat.
  • Die Empfehlung: Die Autoren sagen: „Halt! Wenn Sie eine Persona für ein echtes Produkt erstellen, müssen Sie echte Daten von echten Nutzern in den Befehl einfügen." Sonst erfindet die KI nur Klischees, die nichts mit der Realität zu tun haben.

Fazit: Was lernen wir daraus?

Die KI ist ein mächtiges Werkzeug, wie ein Super-Assistent, der sehr schnell arbeiten kann. Aber sie ist kein Ersatz für echtes Nachdenken.

  • Gut: Die KI kann schnell viele Personas erstellen und Daten sortieren.
  • Schlecht: Oft werden sie zu oberflächlich, zu kurz und zu sehr auf Zahlen fixiert.
  • Die Lösung: Forscher sollten die KI nicht blind vertrauen. Sie sollten die Befehle (Rezepte) besser gestalten, mehr echte Daten einfügen und sich daran erinnern, dass eine gute Persona nicht nur eine Statistik ist, sondern eine Geschichte, die uns hilft, echte Menschen zu verstehen.

Kurz gesagt: Die KI kann den Tonmaler spielen, aber der Mensch muss immer noch den Regisseur bleiben, damit das Stück nicht langweilig wird.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →