GenAI Is No Silver Bullet for Qualitative Research in Software Engineering

Diese Arbeit argumentiert, dass generative KI kein Allheilmittel für qualitative Forschung in der Softwaretechnik ist, sondern deren Einsatz sorgfältig an die spezifischen Daten und Forschungsstrategien angepasst werden muss, um die damit verbundenen Chancen und Risiken zu verstehen.

Neil A. Ernst, Christoph Treude

Veröffentlicht Wed, 11 Ma
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du bist ein Detektiv, der herausfinden soll, warum eine Software-Entwickler-Gruppe manchmal streitet und manchmal fantastisch zusammenarbeitet. Du hast nicht nur Zahlen und Statistiken, sondern musst auch Interviews lesen, Chat-Protokolle durchforsten und sogar die Stimmung im Raum spüren. Das ist qualitative Forschung in der Softwareentwicklung.

Jetzt kommt eine neue Technologie ins Spiel: GenAI (künstliche Intelligenz, die Texte schreiben und analysieren kann). Viele hoffen, dass diese KI wie ein magischer Zauberstab ist, der die ganze Detektivarbeit für sie erledigt.

Die Autoren dieses Papiers, Neil Ernst und Christoph Treude, sagen jedoch ganz klar: Nein, die KI ist kein Wundermittel. Sie ist eher wie ein sehr schneller, aber manchmal etwas oberflächlicher Assistent.

Hier ist die Erklärung des Papiers in einfachen Worten, mit ein paar anschaulichen Vergleichen:

1. Der Unterschied zwischen "Zählen" und "Verstehen"

Stell dir vor, du hast einen riesigen Haufen Briefe (Daten).

  • Die KI ist super im Sortieren: Wenn du sagst: "Fasse alle Briefe zusammen, die über 'Fehler' sprechen" oder "Zähle, wie oft das Wort 'Bug' vorkommt", dann macht die KI das blitzschnell und sehr genau. Das nennt man deduktives Codieren (vorgegebene Regeln anwenden).
  • Die KI ist schlecht im "Fühlen": Wenn du aber wissen willst, warum die Entwickler traurig sind, wenn ein Fehler auftritt, oder welche unausgesprochenen Regeln in der Gruppe gelten, dann stolpert die KI. Sie kann nicht wirklich "fühlen" oder den Kontext verstehen. Sie sieht nur die Wörter, nicht die Menschen dahinter.

Die Metapher: Die KI ist wie ein Super-Reiseführer, der dir alle Sehenswürdigkeiten aufzählen kann. Aber sie ist kein Einheimischer, der dir erzählt, wie sich das Leben in der Stadt wirklich anfühlt, welche Gerüchte es gibt oder warum die Leute an bestimmten Ecken lachen.

2. Wo die KI hilft (Die guten Seiten)

Die Autoren sagen, die KI kann in bestimmten Situationen sehr nützlich sein:

  • Transkription: Sie kann Audio-Interviews in Text umwandeln (wie ein extrem schneller Stenograf).
  • Zusammenfassung: Sie kann lange Chat-Verläufe auf den Punkt bringen.
  • Erste Ideen: Sie kann dem Forscher sagen: "Hey, hier taucht oft das Wort 'Stress' auf, schau mal genauer hin."

Das ist wie ein Küchen-Assistent, der dir schon das Gemüse schneidet, damit du schneller kochen kannst. Aber er kocht das Gericht nicht für dich, und er weiß nicht, wie es schmecken soll.

3. Wo die KI versagt (Die Gefahren)

Hier wird es kritisch. Die KI hat drei große Schwächen in der Forschung:

  • Halluzinationen: Die KI erfindet manchmal Dinge, die plausibel klingen, aber falsch sind. Sie könnte behaupten, ein Entwickler habe gesagt, er sei wütend, obwohl er das gar nicht gesagt hat. Das ist wie ein Lügner, der sehr gut im Erzählen ist.
  • Kein Kontext: Software-Entwicklung ist komplex. Ein Satz wie "Das ist gut" kann bedeuten "Das ist toll" oder "Das ist okay, aber nicht perfekt", je nachdem, wer es sagt und in welcher Situation. Die KI verpasst diese Nuancen oft.
  • Der "Menschliche Faktor": Echte Forschung braucht Reflexion. Das bedeutet, der Forscher muss sich fragen: "Bin ich selbst voreingenommen? Habe ich das richtig verstanden?" Eine KI kann das nicht. Sie hat kein Gewissen und keine eigene Meinung. Wenn man ihr zu viel Macht gibt, verliert die Forschung ihre Tiefe.

Die Metapher: Wenn du die KI allein arbeiten lässt, ist es, als würdest du ein Gemälde nur nach Farben zählen statt es zu betrachten. Du weißt, wie viel Blau und Rot da ist, aber du verstehst nicht die Emotion des Künstlers.

4. Das Fazit: Teamwork statt Ersatz

Die Botschaft des Papiers ist: Nutze die KI als Werkzeug, nicht als Ersatz für den Menschen.

  • Gut: Die KI kann die langweilige, repetitive Arbeit machen (wie das Sortieren von Daten).
  • Schlecht: Die KI sollte nicht entscheiden, was die Forschung bedeutet oder welche Theorie aufgestellt wird.

Der Forscher muss immer der Kapitän bleiben, und die KI ist nur der Navigator, der die Karte liest. Wenn der Kapitän die Kontrolle abgibt, kann das Schiff auf Felsen laufen.

Zusammenfassung für den Alltag

Stell dir vor, du möchtest herausfinden, warum deine Freunde sich manchmal streiten.

  • Mit KI: Du gibst alle WhatsApp-Nachrichten in einen Computer. Der Computer sagt: "30% der Nachrichten enthalten das Wort 'Nein'." Das ist nützlich, aber es erklärt dir nicht, warum sie sich streiten.
  • Mit einem Menschen (Forscher): Du hörst dir die Nachrichten an, kennst die Freunde, weißt, dass einer gerade schlechte Laune hatte, und verstehst den Witz hinter dem "Nein".

Die KI ist also kein Zauberstab, der die menschliche Intelligenz ersetzt. Sie ist ein mächtiges Werkzeug, das aber nur dann funktioniert, wenn ein kluger Mensch die Führung übernimmt.