Each language version is independently generated for its own context, not a direct translation.
Sind KI-Sprachmodelle „blinde Nachahmer"?
Stell dir vor, du hast einen sehr intelligenten, aber etwas verwirrten Übersetzer, der alle Sprachen der Welt kennt. Dieser Übersetzer hat Millionen von Büchern gelesen und kann fast alles verstehen. Aber die Forscher aus Zürich haben eine ganz spezielle Frage an ihn gestellt:
„Kannst du unterscheiden, welche Wörter in einem Satz echt sind und welche nur 'eingeschleppt' wurden?"
In der Sprachwissenschaft nennt man eingekaufte Wörter aus anderen Sprachen Lehnwörter. Ein klassisches Beispiel im Deutschen ist das Wort „Computer". Es ist ein englisches Wort, das wir uns einfach „geliehen" haben. Ein „echtes" deutsches Wort wäre vielleicht „Rechner".
Die Forscher wollten wissen: Wenn man einem modernen KI-Modell (wie ChatGPT oder Gemini) einen Satz gibt, kann es dann erkennen: „Aha, hier steht ein eingekauftes Wort, und hier ein einheimisches"?
Das Experiment: Ein Test für 10 Sprachen
Die Wissenschaftler haben den KI-Modellen Aufgaben in 10 verschiedenen Sprachen gestellt (von Chinesisch über Russisch bis hin zu Isländisch). Sie haben den Modellen sogar ganz genau erklärt, was ein Lehnwort ist:
- Einfach: „Finde die fremden Wörter."
- Mit Geschichte: „Finde Wörter, die vor langer Zeit aus einer anderen Sprache kamen."
- Mit Alltag: „Finde Wörter, die auch von Leuten benutzt werden, die nur eine Sprache sprechen (also keine Code-Switching)."
Das Ergebnis: Die KI ist „wortschuldig"
Das Ergebnis war überraschend und etwas enttäuschend: Die KI war ziemlich schlecht darin.
Man kann sich das wie einen Schüler vorstellen, der eine Prüfung macht, bei der er rote und blaue Kugeln sortieren soll.
- Die KI: Sie sortiert fast alles durcheinander. Sie hält oft Wörter für „fremd", die eigentlich schon fest im Land angekommen sind (wie „Frühstück" oder „Kaffee", die eigentlich auch Lehnwörter sind, aber so integriert sind, dass wir sie gar nicht mehr als solche sehen).
- Das Problem: Die KI schaut nur auf die Oberfläche. Wenn ein Wort wie ein englischer Name aussieht, denkt die KI: „Das ist sicher fremd!". Dabei ist es vielleicht schon seit 200 Jahren Teil der Sprache.
Ein besonders lustiges Beispiel aus dem Papier:
Die KI dachte bei dem englischen Wort „really" in einem kurdischen Satz, es sei ein Lehnwort. Aber eigentlich war es nur ein Moment, in dem der Sprecher kurz auf Englisch umschaltete (Code-Switching). Die KI verwechselte also einen „kurzen Besuch" mit einem „eingebürgerten Einwanderer".
Warum ist das ein Problem?
Stell dir vor, eine Sprache ist wie ein altes, gemütliches Haus.
- Einheimische Wörter sind die alten Möbel, die schon seit Generationen da sind.
- Lehnwörter sind neue Möbel, die man von Nachbarn übernommen hat.
Wenn eine Sprache unter Druck steht (weil eine mächtige Sprache wie Englisch alles überflutet), verlieren die einheimischen Wörter oft den Boden unter den Füßen. Die KI hilft uns normalerweise, Texte zu verstehen. Aber wenn die KI nicht weiß, was „echt" und was „geliehen" ist, kann sie nicht helfen, die einheimischen Wörter zu schützen. Sie bevorzugt oft die „cooleren", eingekauften Wörter, weil sie in ihren Trainingsdaten öfter vorkommen.
Die Lösung? Ein bisschen Nachhilfe hilft
Die Forscher haben dann versucht, den KI-Modellen Nachhilfe zu geben (das nennt man „Fine-Tuning"). Sie haben ihnen spezielle Beispiele gezeigt, wie man Lehnwörter erkennt.
- Ohne Nachhilfe: Die KI lag bei ca. 20–40 % richtig.
- Mit Nachhilfe: Die KI wurde viel besser (bis zu 85 % richtig).
Aber selbst mit Nachhilfe war sie nicht perfekt. Sie hatte immer noch Schwierigkeiten mit:
- Namen von Firmen oder Ländern (die sie fälschlicherweise als Lehnwörter abtat).
- Wissenschaftlichen Begriffen (die oft lateinisch oder griechisch klingen, aber in der Sprache fest verankert sind).
Fazit: Die KI ist noch kein Sprachpolizist
Die Studie zeigt uns, dass moderne Sprach-KIs zwar super im Übersetzen und Schreiben sind, aber sie verstehen die Geschichte und die kulturelle Einbettung von Wörtern noch nicht wirklich. Sie sind „lehnwort-blind".
Sie sehen nur, wie ein Wort aussieht, nicht, wie es sich in der Sprache anfühlt. Damit wir KI-Tools entwickeln können, die kleine Sprachen schützen und fördern, müssen wir ihnen beibringen, nicht nur auf die Buchstaben zu schauen, sondern auch auf die Geschichte hinter dem Wort.
Kurz gesagt: Die KI ist wie ein Tourist, der alle Wörter kennt, aber nicht weiß, welche davon schon seit Jahrhunderten zu Hause sind und welche nur auf Urlaub sind.