Each language version is independently generated for its own context, not a direct translation.
Stell dir vor, eine Gruppe von Freunden versucht, ein komplexes Puzzle zu lösen. Das ist wie Sinnstiftung (Sensemaking) – der Prozess, bei dem Menschen gemeinsam herausfinden, was etwas bedeutet und wie sie es verstehen.
Heutzutage helfen uns künstliche Intelligenzen (GenAI) dabei. Aber es gibt ein Problem: Viele dieser KI-Systeme sind wie ein überfürsorglicher Lehrer, der jedem Schritt genau sagt, was zu tun ist.
- Das Problem: Wenn die KI sagt: „Du machst Schritt 1, du machst Schritt 2, und ihr diskutiert so und so", hören die Leute auf, selbst nachzudenken. Sie werden zu passiven Befehlsempfängern. Das Puzzle wird zwar gelöst, aber die Gruppe hat nichts gelernt und verliert ihre eigene Fähigkeit, Probleme zu verstehen.
Die Autoren dieses Papiers schlagen eine andere Methode vor, basierend auf sogenannten Gruppenbewusstseins-Tools (GATs).
Die Metapher: Der Spiegel statt der Anleitung
Stell dir vor, anstatt dir zu sagen, wie du das Puzzle löst, gibt dir die KI einen magischen Spiegel.
- Der alte Weg (Explizite Anleitung): Die KI kommt herein und sagt: „Du hast zu wenig über das rote Teil gesprochen, und du hast das blaue Teil ignoriert. Ändert eure Strategie!" Das ist wie ein Koch, der dir das Rezept diktiert. Du kochst, aber du verstehst nicht, warum.
- Der neue Weg (Implizite Führung): Die KI zeigt dir einen Radar-Chart (eine Art Spinnennetz-Diagramm). Darauf siehst du: „Hey, Sarah denkt, sie weiß viel über das rote Teil, aber in der Diskussion hat sie kaum etwas dazu gesagt. Und Tom redet viel, aber seine Ideen passen nicht zu denen von Lisa."
- Die KI sagt nicht, was das bedeutet.
- Sie zeigt nur die Unterschiede.
- Die Gruppe sieht diese Lücke und denkt sich: „Moment mal, warum reden wir so unterschiedlich? Da muss etwas nicht stimmen!"
- Dieser Moment des „Aha!" oder der Verwirrung nennt man kognitiver Konflikt. Er zwingt die Gruppe, selbst zu reden, zu diskutieren und die Lösung gemeinsam zu finden.
Wie kann KI das besser machen?
Bisherige Tools konnten nur zählen (z. B. „Wer hat wie oft gesprochen?"). Das ist wie ein Tacho im Auto: Er zeigt nur die Geschwindigkeit, aber nicht, ob du die Straße verstehst.
Die KI kann jetzt aber auch unstrukturierte Texte lesen (wie Chat-Protokolle oder Notizen). Sie kann verstehen, ob sich die Leute wirklich aufeinander beziehen oder nur aneinander vorbeireden.
Die Autoren schlagen drei einfache Regeln vor, wie man diese KI-Intelligenz in den „Spiegel" einbaut, ohne dass sie zum „Chef" wird:
- Mische die Werkzeuge: Lass die KI nicht alles machen. Wenn es um einfache Zahlen geht (wer hat wie oft geklickt), reicht ein einfacher Computer-Code. Aber wenn es darum geht, was die Leute wirklich verstanden haben, ist die KI super. Nutze also beides: Zahlen für den Tacho, KI für das Verständnis.
- Zeige Unterschiede, keine Antworten: Stell dir vor, der Radar-Chart ist ein Bild. Die KI fügt keine neuen Pfeile hinzu, die sagen „Hier lang!". Stattdessen färbt sie den Hintergrund des Bildes ein.
- Dunkle Farbe: „Ihr habt gesagt, ihr versteht das, und eure Diskussion zeigt das auch." (Alles gut).
- Helle Farbe: „Ihr habt gesagt, ihr versteht das, aber eure Diskussion zeigt, dass ihr verwirrt seid." (Hier ist ein Problem).
- Die Gruppe sieht die helle Farbe und fragt sich: „Warum ist das hier hell? Was ist los?" Die KI liefert den Hinweis, die Gruppe liefert die Lösung.
- Lass die Gruppe nachforschen: Wenn jemand auf einen hellen Bereich klickt, sollte die KI nicht einfach eine lange Erklärung abgeben. Stattdessen sollte sie wie ein Detektiv sein, der Beweise zeigt: „Hier ist ein Zitat aus eurem Chat, das zeigt, dass ihr verwirrt wart."
- Die Gruppe kann sich das Zitat ansehen und sagen: „Stimmt, da haben wir uns missverstanden" oder „Nein, die KI hat das falsch verstanden, wir meinten das anders."
- Die KI ist also nur der Startschuss für die Diskussion, nicht das Ende.
Fazit
Das Ziel ist es, die KI nicht als Chef zu nutzen, der die Gruppe durch den Wald führt, sondern als einen klugen Wanderführer, der eine Landkarte zeigt, auf der die Lücken zwischen dem, was die Gruppe denkt, und dem, was sie tut, sichtbar werden.
Wenn die Gruppe diese Lücken selbst sieht, werden sie wach, diskutieren und lösen das Problem gemeinsam. So bleibt die Gruppe schlau und unabhängig, auch wenn eine KI hilft.