One Language, Two Scripts: Probing Script-Invariance in LLM Concept Representations

Dit onderzoek toont aan dat Sparse Autoencoder-features in LLMs, getest met het Servische digrafie (Latijnse en Cyrillische schriften), semantische betekenis boven orthografische vorm prioriteren, waarbij de representaties scriptonafhankelijk zijn en sterker worden naarmate het model groter is.

Sripad Karne

Gepubliceerd Wed, 11 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je twee verschillende vertalers hebt. De ene spreekt alleen in Latijnse letters (zoals A, B, C) en de andere alleen in Cyrillische letters (zoals А, Б, В). Voor een computer zijn dit twee totaal verschillende talen, alsof de ene vertaler in het Frans spreekt en de andere in het Japans. Ze gebruiken geen enkele letter die op elkaar lijkt.

Maar wat als je zegt: "Ik wil dat ze precies hetzelfde denken, ongeacht welke letters ze gebruiken?"

Dat is precies wat deze wetenschappers hebben onderzocht met een slimme truc en een speciale taal: Servisch.

Het Grote Experiment: Servisch als de "Twee-Geschriften-Taal"

Servisch is uniek. Mensen die Servisch spreken, schrijven hun taal soms in het Latijnse alfabet en soms in het Cyrillische alfabet. Het is alsof je een verhaal schrijft, en dan iemand anders het overschrijft in een ander schrift, maar exact dezelfde woorden en betekenis behoudt. Er is geen verlies van informatie.

Voor een computer (een Large Language Model of LLM) is dit echter een enorme uitdaging. Omdat de letters zo verschillend zijn, ziet de computer de twee schriften als twee volledig verschillende talen. Ze hebben zelfs geen enkele gemeenschappelijke "bouwsteen" (token) in hun geheugen.

De "Geheime Camera": Sparse Autoencoders (SAE)

Om te zien wat er in het hoofd van de computer gebeurt, gebruikten de onderzoekers een soort X-ray-bril genaamd Sparse Autoencoders.

Stel je voor dat het brein van de computer een enorme, donkere kamer is vol met duizenden lampjes. De meeste lampjes gaan uit, maar een paar gaan fel branden als de computer iets begrijpt.

  • Als de computer het woord "hond" ziet, gaan lampjes 1, 5 en 12 aan.
  • Als het woord "kat" is, gaan lampjes 3, 9 en 20 aan.

De onderzoekers wilden weten: Zien deze lampjes de betekenis van het woord, of zien ze alleen de vorm van de letters?

De Vraag: Is het Brein Slap of Slim?

Ze stelden de computer een simpele test:

  1. Geef de computer een zin in het Servisch-Latijns: "De kat zit op de mat."
  2. Geef de computer dezelfde zin in het Servisch-Cyrillisch: "Кошача седи на мати." (Dit is letterlijk hetzelfde, maar met andere tekens).

De Hypothese:

  • Als de computer "slap" is: Hij denkt dat het twee verschillende dingen zijn. De lampjes die branden bij de Latijnse versie, zijn totaal anders dan die bij de Cyrillische versie.
  • Als de computer "slim" is: Hij herkent de betekenis. De lampjes die branden, moeten bijna hetzelfde zijn, ongeacht of de letters er anders uitzien.

Wat Vonden Ze? (De Resultaten)

Het nieuws is geweldig voor de kunstmatige intelligentie: De computer is slim.

  1. Betekenis wint van vorm: De lampjes die brandden voor de Latijnse zin en de Cyrillische zin waren bijna identiek. Het maakt voor de computer kennelijk niet uit hoe het geschreven is, zolang de boodschap maar hetzelfde blijft.
  2. Grotere modellen zijn slimmer: Hoe groter en krachtiger de computer (van kleine tot enorme modellen), hoe beter hij dit doet. Bij de grootste modellen was de overeenkomst tussen de twee schriften zelfs sterker dan bij het herschrijven van een zin in dezelfde taal.
    • Analogie: Het is alsof het voor de computer makkelijker is om te begrijpen dat "Hond" en "Dog" hetzelfde zijn, dan om te begrijpen dat "Hond" en "Deze hond is groot" hetzelfde bedoelen. Hij kijkt echt naar de kern, niet naar de verpakking.
  3. Geen "uit het hoofd leren": Ze testten ook of de computer gewoon zinnen uit zijn geheugen had opgezocht (zoals een leerling die een antwoord uit zijn hoofd leert). Zelfs als ze zinnen combineerden die de computer waarschijnlijk nooit eerder samen had gezien (Latijnse origineel + Cyrillische herschrijving), bleef de overeenkomst groot. Dit betekent dat hij echt begrijpt wat er staat, en niet alleen herhaalt wat hij heeft gezien.

Waarom Is Dit Belangrijk?

Stel je voor dat je een robot bouwt die de wereld moet helpen. Je wilt dat hij begrijpt dat een bericht in het Russisch, het Arabisch of het Chinees dezelfde boodschap kan dragen als een bericht in het Nederlands, ook al zien de letters er totaal anders uit.

Deze studie bewijst dat moderne AI-modellen (zoals de Gemma-modellen die ze gebruikten) abstract kunnen denken. Ze zijn niet vastgeklonken aan de letters op het scherm. Ze hebben een "geest" die boven de letters uitkijkt en de echte betekenis vangt.

Conclusie in Eén Zin

De onderzoekers hebben bewezen dat AI-modellen niet blind zijn voor de vorm van tekst; ze kunnen de ziel van de taal zien, zelfs als de kleding (het schrift) volledig verandert. En hoe groter de AI, hoe scherper dat inzicht wordt.