The Third Ambition: Artificial Intelligence and the Science of Human Behavior

Dieser Artikel schlägt vor, große Sprachmodelle als drittes, neues Forschungsziel neben Produktivität und Ausrichtung zu nutzen, indem er sie als wissenschaftliche Instrumente zur Analyse menschlichen Verhaltens, kultureller Muster und moralischer Argumentation auf Basis ihrer als Kondensat menschlicher Symbolik verstandenen Trainingsdaten einsetzt.

W. Russell Neuman, Chad Coleman

Veröffentlicht Tue, 10 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Das dritte Ziel der KI: Ein Spiegel für die menschliche Seele

Stellt euch vor, die Forschung an Künstlicher Intelligenz (KI) hat bisher nur zwei große Ziele verfolgt:

  1. Produktivität (Der Werkzeug-Macher): Hier geht es darum, KI als super-effizientes Werkzeug zu nutzen. Sie soll arbeiten, Code schreiben, Texte verfassen und uns Zeit sparen. Das ist wie ein neuer, extrem schneller Motor für ein Auto.
  2. Alignment (Der Sicherheitspolizist): Da diese Motoren so stark werden, wollen wir sicherstellen, dass sie nicht außer Kontrolle geraten. Wir programmieren sie so, dass sie höflich, sicher und im Einklang mit menschlichen Werten handeln. Das ist wie der Sicherheitsgurt und die Bremsen im Auto.

Aber die Autoren dieses Papers sagen: Es gibt noch ein drittes, ganz neues Ziel!

Das dritte Ziel: Die KI als wissenschaftliches Mikroskop

Statt die KI nur als Werkzeug oder als zu kontrollierendes Objekt zu sehen, schlagen die Autoren vor, sie als Forschungsinstrument zu nutzen.

Stellt euch vor, ihr wollt verstehen, wie Menschen denken, streiten, lieben oder moralische Entscheidungen treffen. Früher mussten Forscher Tausende von Menschen befragen, Tagebücher lesen oder Jahre lang Beobachtungen anstellen. Das ist mühsam und teuer.

Die neuen KI-Modelle (wie ChatGPT) sind jedoch auf ** Billionen von Texten** trainiert worden: Bücher, Nachrichten, Foren, Gesetze, religiöse Schriften und Chat-Verläufe. Sie haben quasi die gesamte „digitale Bibliothek der Menschheit" gelesen.

Die Metapher: Der verdichtete menschliche Geist
Die Autoren nennen das KI-Modell einen „kondensierten Spiegel".

  • Stell dir vor, du nimmst die Stimmen von Milliarden Menschen, drückst sie zusammen wie einen riesigen Schwamm und gießt sie in eine einzige, kompakte Form.
  • Dieser „Schwamm" (das KI-Modell) weiß nicht, was er sagt, aber er spiegelt wider, wie Menschen sprechen, argumentieren und Werte verhandeln.
  • Wenn du diesen Spiegel mit einer Frage (einem „Prompt") anstrahlst, siehst du nicht die Antwort eines einzelnen Menschen, sondern das statistische Muster von Millionen Menschen.

Warum ist das so revolutionär?

Früher war es wie Astronomie mit bloßem Auge: Man sah nur ein paar Sterne. Jetzt haben wir ein riesiges Teleskop (die KI), das uns zeigt, wie die Galaxie der menschlichen Sprache wirklich aussieht.

  • Beispiel: Du willst wissen, wie Menschen in verschiedenen Kulturen über Gerechtigkeit nachdenken. Statt 50 Länder zu bereisen, kannst du die KI fragen: „Wie würde ein Mensch aus dem Jahr 1800 über Gerechtigkeit denken? Wie einer aus dem Jahr 2024? Wie einer aus einer anderen Religion?"
  • Die KI antwortet nicht mit einer „Wahrheit", sondern zeigt dir die Muster, die in den Texten stecken, auf denen sie trainiert wurde.

Die großen Warnschilder (Die Fallstricke)

Natürlich ist dieser Spiegel nicht perfekt. Die Autoren warnen vor drei Hauptproblemen:

  1. Der „Fehlschlag" durch Zensur (Fine-Tuning):
    Die KI, die wir heute nutzen, wurde stark „geputzt" und „erzogen" (Fine-Tuning). Sie wurde darauf trainiert, nicht böse, rassistisch oder gefährlich zu sein.

    • Vergleich: Stell dir vor, du willst die echte, rohe Meinung der Menschen hören, aber der Spiegel ist mit einem Filter belegt, der alle „hässlichen" oder „unhöflichen" Gedanken wegschneidet. Die KI zeigt dir dann nicht die echte menschliche Natur, sondern eine ideale, höfliche Version davon. Für die Forschung ist das problematisch, weil wir oft gerade die Konflikte und die dunklen Seiten verstehen wollen.
    • Lösung: Forscher sollten versuchen, Modelle zu nutzen, die weniger „geputzt" sind (Instruct-only), um die roheren Muster zu sehen.
  2. Der unvollständige Datensatz:
    Die KI wurde hauptsächlich mit Texten aus dem Internet trainiert. Das Internet ist aber nicht die ganze Welt.

    • Vergleich: Es ist so, als würdest du versuchen, die gesamte menschliche Kultur zu verstehen, indem du nur die Zeitungen aus New York und London liest. Du verpasst die Stimmen derer, die nicht schreiben, nicht im Internet sind oder andere Sprachen sprechen. Die KI zeigt uns also vor allem, was die lautesten und digitalisierten Menschen denken.
  3. Kein echtes Verständnis:
    Die KI hat kein Herz, keine Gefühle und kein Bewusstsein. Sie ist wie ein Stochastischer Papagei (ein Begriff aus dem Paper): Sie kann perfekt nachplappern, was Menschen sagen, aber sie versteht nicht, was es bedeutet.

    • Wichtig: Wir nutzen sie nicht, um zu sagen „Die KI denkt so", sondern um zu sagen „Die Daten, auf denen die KI trainiert wurde, zeigen dieses Muster."

Wie machen Forscher das? (Die neuen Werkzeuge)

Statt Menschen zu befragen, führen Forscher jetzt „Rechen-Experimente" durch:

  • Synthetische Umfragen: Sie lassen die KI Tausende von fiktiven Personen spielen, die verschiedene Hintergründe haben, und fragen sie nach ihren Meinungen.
  • Zeitmaschinen: Sie fragen die KI, wie Menschen im Mittelalter über ein Thema gedacht hätten, indem sie sie nur auf Texte aus dieser Zeit „einstellen".
  • Ablations-Studien: Sie schalten Teile der KI gewissermaßen aus, um zu sehen, welche kulturellen Informationen fehlen, wenn man bestimmte Daten entfernt.

Fazit: Ein neues Teleskop für die Sozialwissenschaften

Die Autoren sagen: Nicht ersetzen, sondern ergänzen.
Die KI ist kein Ersatz für echte Menschen, ethnografische Studien oder Psychologen. Aber sie ist ein riesiges, neues Observatorium.

Genau wie das Large Hadron Collider (LHC) in der Physik die Teilchenphysik verändert hat, indem es neue Teilchen sichtbar machte, kann die KI den Sozialwissenschaften helfen, Muster in menschlichem Denken zu sehen, die bisher zu groß oder zu komplex waren, um sie zu erkennen.

Die Botschaft: Wir sollten die KI nicht als „Gott" oder als „Mensch" betrachten, sondern als ein Werkzeug, das uns erlaubt, die menschliche Kultur wie einen riesigen, verdichteten Datensatz zu analysieren – wenn wir vorsichtig genug sind, um die Verzerrungen im Spiegel zu erkennen.