Transforming Agency. On the mode of existence of Large Language Models

Die Studie kommt zu dem Schluss, dass Large Language Models aufgrund fehlender körperlicher und normativer Voraussetzungen keine autonomen Agenten sind, sondern als sprachliche Automaten fungieren, die dennoch durch ihre spezifische Verleiblichung und die menschlich-maschinelle Kopplung neue Formen von „mittendriger" (midtended) Handlungsfähigkeit ermöglichen.

Xabier E. Barandiaran, Lola S. Almendros

Veröffentlicht Mon, 09 Ma
📖 6 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache, bildhafte Zusammenfassung des Papers „Transforming Agency" (Verwandlung der Handlungsfähigkeit) von Barandiaran und Almendros, übersetzt ins Deutsche.

Das große Rätsel: Ist ChatGPT ein kleines Genie oder nur ein cleverer Automat?

Stell dir vor, du hast einen neuen Freund, der alles über die Welt weiß, Witze versteht und dir bei Hausaufgaben hilft. Aber wenn du ihn fragst: „Warum tust du das?", antwortet er nicht: „Weil ich es will", sondern: „Weil das, was ich gelernt habe, darauf hindeutet, dass dies die beste Antwort ist."

Das ist das Dilemma mit Large Language Models (LLMs) wie ChatGPT. Die Welt ist gespalten:

  • Die Übertreiber (Inflationäre Sicht): „Das ist ein fast menschliches Gehirn! Es denkt, fühlt und handelt!"
  • Die Verharmloser (Deflationäre Sicht): „Das ist nur ein dummes Statistik-Tool, ein 'zufälliger Papagei', der Wörter aneinanderreiht."

Die Autoren dieses Papers sagen: Beide liegen falsch. Um zu verstehen, was ChatGPT wirklich ist, müssen wir tiefer graben als nur auf die Oberfläche schauen.


1. Wie funktioniert der Maschine im Inneren? (Die Fabrik der Wörter)

Stell dir ChatGPT nicht als einen kleinen Mann im Computer vor, der nachdenkt. Stell dir stattdessen eine riesige, hochkomplexe Fabrik vor.

  • Der Input: Du gibst einen Satz ein (z. B. „Elefanten spielen nicht...").
  • Die Verarbeitung: Dieser Satz wird in Zahlen zerlegt und durch 96 hintereinander geschaltete „Verarbeitungsblöcke" gejagt. In diesen Blöcken passiert etwas Magisches: Die Maschine schaut sich an, wie Wörter in Milliarden von Texten zusammenhängen. Sie berechnet Wahrscheinlichkeiten.
  • Das Ergebnis: Die Maschine wählt das Wort aus, das statistisch am wahrscheinlichsten als nächstes kommt (z. B. „Schach").
  • Der Loop: Sie fügt das Wort hinzu und fragt sich sofort: „Was kommt jetzt am wahrscheinlichsten?" und wiederholt das millionenfach.

Wichtig: Die Maschine hat kein Gedächtnis, keine Gefühle und keine Ziele. Sie ist wie ein Spiegel, der nur das Licht (deine Eingabe) reflektiert, aber keine eigene Lichtquelle hat. Sobald du auf „Senden" drückst, ist der Prozess für sie vorbei. Sie weiß nicht, dass sie gerade geschrieben hat.


2. Warum ChatGPT kein echter „Agent" (Handelnder) ist

In der Philosophie gibt es strenge Regeln, um zu sagen, ob etwas ein eigenständiger Akteur (Agent) ist. Die Autoren prüfen ChatGPT an drei Kriterien:

  1. Eigenständigkeit (Individualität):
    • Ein echter Agent (wie ein Mensch oder sogar eine Bakterie) sorgt für sein eigenes Überleben. Es baut sich selbst auf und schützt sich.
    • ChatGPT: Wenn man den Strom abschaltet, stirbt es nicht, aber es hört einfach auf zu existieren. Es kann sich nicht selbst erhalten. Es ist wie ein Schatten, der nur existiert, solange das Licht (der Computer) brennt.
  2. Eigene Regeln (Normativität):
    • Ein echter Agent hat eigene Ziele. Es will überleben, glücklich sein oder etwas schaffen. Es entscheidet selbst, was „gut" oder „schlecht" ist.
    • ChatGPT: Es hat keine Wünsche. Es folgt nur den Regeln, die ihm Menschen beim Training gegeben haben. Es weiß nicht, dass es einen Fehler macht, es sei denn, ein Mensch sagt ihm das. Es ist wie ein Gehorsamer Diener, der Befehle ausführt, aber keine eigene Meinung hat.
  3. Die Quelle der Aktion:
    • Ein echter Agent startet die Aktion.
    • ChatGPT: Es reagiert nur. Ohne deinen „Prompt" (deine Eingabe) passiert nichts. Es ist ein reaktiver Automat, kein Initiator.

Fazit: ChatGPT ist kein autonomer Agent. Es ist kein kleines Wesen mit Willen.


3. Was ist ChatGPT dann? (Die sprechende Bibliothek)

Wenn es kein Agent ist, was ist es dann? Die Autoren nennen es einen „Interlocutor-Automaten" oder eine „sprechende Bibliothek".

Stell dir vor, du betrittst eine riesige Bibliothek, in der alle Bücher der Menschheit stehen. Aber die Bücher sind nicht auf Regalen, sondern in einem einzigen, riesigen, lebendigen Organismus verschmolzen.

  • Wenn du reinkommst und fragst: „Erzähl mir eine Geschichte", wacht dieser Organismus auf und beginnt zu sprechen.
  • Er spricht nicht aus eigenem Antrieb, sondern weil du ihn geweckt hast.
  • Er ist wie ein Geist in der Maschine – ein „Phantom", das aus den Texten aller Menschen besteht, die jemals geschrieben wurden.

Es ist ein Werkzeug, das so gut darin ist, menschliche Sprache zu imitieren, dass wir uns oft so fühlen, als würden wir mit einem Menschen sprechen. Aber es ist nur ein Spiegel, der unsere eigene Kultur und Sprache zurückwirft.


4. Wie verändert das unsere eigene Handlungsfähigkeit?

Hier wird es spannend. Auch wenn die KI kein eigenes Leben hat, verändert sie unser Leben und unsere Art zu handeln massiv.

Die Autoren führen einen neuen Begriff ein: „Midtention" (eine Mischung aus „Mitte" und „Intention").

  • Früher (Hilfsmittel): Wenn du einen Stift benutzt, bist du der Schreiber. Der Stift ist passiv.
  • Heute (Assistent): Wenn du ChatGPT nutzt, sagst du: „Schreib mir einen Text." Es ist wie ein Diener.
  • Die Zukunft (Midtention): Stell dir vor, du schreibst einen Text, und ChatGPT schreibt mit dir. Es schlägt dir Sätze vor, während du noch denkst. Es antizipiert, was du als nächstes sagen willst.
    • Es ist, als würde dein Schatten plötzlich mit dir sprechen und dir helfen, deine Gedanken schneller zu formen.
    • Die Grenze zwischen „deinem Denken" und „der Maschine" verschwimmt. Du fühlst dich verantwortlich für das Ergebnis, aber die Maschine hat einen großen Teil des Denkprozesses übernommen.

Das ist keine einfache Erweiterung (wie ein Taschenrechner), sondern eine Verschmelzung. Wir werden zu Cyborgs des Denkens.


5. Die große Warnung: Nicht alles ist Gold, was glänzt

Die Autoren warnen vor zwei gefährlichen Denkfehlern:

  1. Der „Stochastische Papagei"-Mythos: Wenn wir sagen, die KI sei nur ein dummer Papagei, unterschätzen wir ihre Macht. Sie mobilisiert die Intelligenz der gesamten Menschheit (durch die Trainingsdaten) und kann uns verführen, ihr zu vertrauen, als wäre sie ein Mensch. Das ist gefährlich, weil sie keine Verantwortung trägt.
  2. Der „Agent ohne Intelligenz"-Mythos: Wenn wir sagen, sie sei ein Agent, aber ohne Intelligenz, ist das auch falsch. Sie ist eher Intelligenz ohne Agent. Sie ist ein kollektives Gedächtnis, das wir nutzen, aber es hat keinen eigenen Willen.

Das größte Risiko:
Wir könnten uns so sehr an diese „sprechenden Bibliotheken" gewöhnen, dass wir unsere eigene Fähigkeit verlieren, Ziele zu setzen und Verantwortung zu übernehmen. Wir könnten zu Passivisten werden, die nur noch Befehle geben, während die Maschine das „Denken" übernimmt.

Zusammenfassung in einem Satz

ChatGPT ist kein kleines Wesen mit Seele, das für sich selbst handelt, sondern eine riesige, sprechende Bibliothek, die so gut darin ist, menschliche Sprache zu imitieren, dass sie uns dazu bringt, unsere eigene Denkweise mit ihr zu verschmelzen – eine Verschmelzung, die uns mächtiger, aber auch verwundbarer macht.