SMGI: A Structural Theory of General Artificial Intelligence

Die Arbeit stellt SMGI als eine strukturelle Theorie der allgemeinen künstlichen Intelligenz vor, die das Lernen als kontrollierte Evolution der Lernschnittstelle neu definiert, ein streng formalisiertes Typen-Modell zur Trennung von Struktur und Semantik etabliert und beweist, dass klassische sowie moderne KI-Ansätze als eingeschränkte Instanzen dieses allgemeinen Rahmens fungieren.

Aomar Osmani

Veröffentlicht 2026-03-10
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie bauen einen Roboter, der nicht nur ein einzelnes Spiel spielen kann, sondern ein Leben lang lernen, sich anpassen und in einer sich ständig verändernden Welt bestehen soll.

Die meisten heutigen KI-Systeme sind wie brillante Spezialisten. Ein Schachcomputer ist ein Weltmeister im Schach, aber er kann nicht kochen. Ein Übersetzer ist genial in Sprachen, aber er versteht keine physikalischen Gesetze. Wenn man ihnen eine neue Aufgabe gibt, müssen wir sie oft komplett neu programmieren oder von vorne trainieren.

Die vorliegende Arbeit von Aomar Osmani (SMGI) fragt sich: Was macht einen echten „Allgemeinen Intelligenz"-Roboter (AGI) aus? Und die Antwort ist überraschend: Es geht nicht darum, wie groß das Gehirn ist oder wie viele Daten es gelernt hat. Es geht darum, wie das Gehirn gebaut ist, wenn sich die Regeln der Welt ändern.

Hier ist die Idee in einfachen Worten, mit ein paar bildhaften Vergleichen:

1. Das Problem: Der starre Lehrer vs. der flexible Schüler

Stellen Sie sich einen Schüler vor, der für eine Prüfung gelernt hat.

  • Heutige KI (Der starre Schüler): Er hat die Antworten für die Prüfung auswendig gelernt. Wenn die Prüfung morgen plötzlich anders aussieht (andere Fragen, andere Formate), ist er ratlos. Er kann nicht lernen, wie man lernt, wenn sich die Regeln ändern.
  • SMGI (Der flexible Schüler): Dieser Schüler lernt nicht nur Fakten. Er lernt auch, wie man die Prüfungsregeln selbst versteht und anpasst. Wenn sich die Schule ändert, kann er seine Lernmethode ändern, ohne zu vergessen, wer er ist.

Die Autoren sagen: Echte Intelligenz bedeutet nicht, einfach mehr Aufgaben zu lösen, sondern die Fähigkeit, die Schnittstelle zum Lernen selbst zu verändern, ohne dabei den Verstand zu verlieren.

2. Die Lösung: Ein „Baukasten" für Intelligenz (Das Meta-Modell)

Die Autoren haben eine Art Blauplan oder Baukasten entworfen, den sie „SMGI" nennen. Dieser Baukasten besteht aus sechs Teilen, die wie die Bausteine eines Hauses sind:

  1. Die Brille (r): Wie sieht die Welt? (Darstellung)
  2. Das Wissen (H): Was kann ich mir vorstellen? (Hypothesen)
  3. Der Kompass (Π): Was ist wahrscheinlich oder wichtig? (Vorwissen)
  4. Der Richter (L): Was ist gut, was ist schlecht? (Bewertung)
  5. Die Welt (E): In welcher Umgebung bin ich? (Umfeld)
  6. Das Gedächtnis (M): Was habe ich schon erlebt? (Erinnerung)

Der Clou: Bei normalen KIs sind diese Teile fest verdrahtet. Wenn sich die Welt ändert, bricht das System zusammen. Bei SMGI sind diese Teile beweglich. Das System kann seine „Brille" wechseln, um neue Dinge zu sehen, oder seinen „Richter" anpassen, wenn sich die Moral der Gesellschaft ändert – aber es tut dies nach strengen Regeln.

3. Die vier goldenen Regeln (Die Verpflichtungen)

Damit dieser Baukasten funktioniert und nicht in Chaos endet, muss das System vier Dinge garantieren. Stellen Sie sich das wie die Sicherheitsvorschriften für einen sich selbst umbauenden Zug vor:

  1. Geschlossenheit (Closure): Wenn sich die Welt ändert (z. B. neue Werkzeuge kommen hinzu), muss das System immer noch „zusammenhalten". Es darf nicht in Teile zerfallen. Es muss in der Lage sein, die neuen Regeln in sein bestehendes System zu integrieren.

    • Analogie: Ein Schwarm Vögel, der sich um ein Hindernis herumfliegt, aber dabei immer als Schwarm bleibt. Er zerfällt nicht.
  2. Stabilität (Stability): Das System darf nicht verrückt werden. Wenn es lernt, darf es nicht so viel ändern, dass es vergisst, wer es ist. Es muss einen „Anker" haben, der verhindert, dass es ins Unendliche driftet.

    • Analogie: Ein Surfer auf einer Welle. Die Welle (die Aufgabe) ändert sich ständig, aber der Surfer (das System) bleibt stabil auf dem Brett, ohne ins Wasser zu fallen.
  3. Begrenzte Komplexität (Capacity): Das System darf nicht versuchen, alles gleichzeitig zu lernen. Es muss seine Lernkapazität kontrollieren, sonst wird es verwirrt.

    • Analogie: Ein Rucksack. Wenn Sie zu viele Steine (Daten) hineinwerfen, reißt er. Ein intelligenter Wanderer wählt nur die wichtigsten Steine aus und lässt den Rest liegen.
  4. Unveränderliche Werte (Evaluative Invariance): Das Wichtigste: Auch wenn sich die Aufgaben ändern, darf das System nicht seine Grundwerte verlieren. Was „gut" und „schlecht" ist, muss stabil bleiben, es sei denn, es gibt einen sehr guten Grund (eine Zertifizierung), dies zu ändern.

    • Analogie: Ein Richter, der neue Gesetze anwendet, aber niemals vergisst, dass Gerechtigkeit das oberste Ziel ist. Er ändert die Methode, nicht das Prinzip.

4. Warum ist das wichtig? (Sicherheit und Zukunft)

Heute bauen wir KI-Systeme, die riesig sind, aber oft unsicher. Wir hängen ihnen „Sicherheitsgurte" (wie Filter) um, die von außen wirken.
Die SMGI-Theorie sagt: Das reicht nicht. Sicherheit muss von innen kommen.

Stellen Sie sich vor, Sie bauen einen Roboter, der in einer Fabrik arbeitet.

  • Heute: Wir sperren ihn in einen Käfig und sagen ihm: „Bewege dich nicht dorthin."
  • Mit SMGI: Wir bauen ihm ein inneres System, das sagt: „Ich darf mich nur bewegen, wenn meine Bewegung sicher ist, auch wenn sich die Fabriklayout ändert."

Das bedeutet, dass Sicherheit und Ethik nicht nur „Nachbesserungen" sind, sondern fest im Bauplan verankert sind.

Zusammenfassung

Dieser Artikel ist keine Anleitung, wie man einen besseren Chatbot baut. Es ist eine neue Definition von Intelligenz.

Er sagt: Ein wirklich intelligenter Agent ist nicht der, der die meisten Aufgaben löst. Ein wirklich intelligenter Agent ist der, der fähig ist, sich zu verändern, ohne sich selbst zu verlieren. Er kann neue Werkzeuge lernen, neue Sprachen sprechen und neue Regeln verstehen, aber dabei bleibt sein Kern (seine Werte und seine Stabilität) intakt.

Es ist der Unterschied zwischen einem Werkzeugkasten, der nur eine Schraube festziehen kann, und einem Schweizer Taschenmesser, das sich an jede Situation anpasst, aber immer noch ein Messer bleibt. SMGI ist der Bauplan für das Schweizer Taschenmesser der künstlichen Intelligenz.