SMGI: A Structural Theory of General Artificial Intelligence

Ce papier présente SMGI, une théorie structurelle de l'intelligence artificielle générale qui formalise l'apprentissage comme une évolution contrôlée de l'interface d'apprentissage via un méta-modèle typé, établissant ainsi un cadre unificateur qui englobe et généralise des approches existantes telles que la minimisation du risque empirique, l'apprentissage par renforcement et les modèles de priors de programmes.

Aomar Osmani

Publié 2026-03-10
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Imaginez que vous essayez d'enseigner à un enfant comment naviguer dans le monde.

La méthode actuelle de l'intelligence artificielle (IA), c'est un peu comme donner à cet enfant un manuel de cuisine très épais et lui dire : « Apprends par cœur toutes les recettes ». Si vous lui donnez une nouvelle recette (un nouveau jeu vidéo, un nouveau langage), il doit tout réapprendre depuis zéro, ou alors il oublie les anciennes recettes. C'est ce qu'on appelle l'apprentissage dans un cadre fixe.

Le papier que vous avez soumis, intitulé SMGI (Modèle Structurel de l'Intelligence Générale), propose une idée radicalement différente. Il ne s'agit pas seulement de donner plus de recettes à l'enfant, mais de lui apprendre comment construire son propre manuel et comment changer de règles quand le monde change.

Voici l'explication simple, avec des analogies du quotidien :

1. Le Problème : L'IA actuelle est comme un acteur qui joue un seul rôle

Aujourd'hui, les IA les plus avancées (comme les grands modèles de langage) sont comme des acteurs brillants, mais ils sont coincés dans un seul rôle.

  • Si le décor change (on passe d'une scène de cuisine à une scène de guerre), ils sont perdus.
  • Si le script change (les règles du jeu changent), ils continuent à jouer leur rôle de cuisine et échouent.
  • Si on leur demande de changer de personnalité (devenir plus gentil ou plus méchant), on doit souvent les réécrire de zéro ou ajouter des "gardes-fous" externes (comme un parent qui crie "Non !").

Le papier dit : Ce n'est pas de l'intelligence générale. C'est juste de la performance dans un cadre très étroit.

2. La Solution : L'IA comme un "Architecte de Soi-Même"

Le SMGI propose de voir l'intelligence non pas comme un cerveau qui mémorise des faits, mais comme un système qui gère sa propre structure.

Imaginez un jardinier au lieu d'un acteur.

  • L'acteur suit un script fixe.
  • Le jardinier sait que les saisons changent. Il sait qu'il doit changer ses outils (représentation), ses règles d'arrosage (évaluation), et même la façon dont il se souvient des plantes (mémoire) quand il passe du printemps à l'hiver.

Le SMGI définit l'IA générale comme un système capable de changer ses propres outils et règles sans s'effondrer, tout en gardant son "âme" (ses valeurs fondamentales) intacte.

3. Les 4 Piliers de la "Santé" de l'IA (Les 4 Obligations)

Pour qu'une IA soit considérée comme "générale" selon ce papier, elle doit respecter quatre règles strictes, comme un pilote qui doit respecter un manuel de vol :

  1. La Cohérence (Fermeture) :
    • Analogie : Imaginez un jeu de Lego. Si vous changez les règles du jeu (par exemple, on passe du Lego classique au Lego magnétique), le système doit pouvoir continuer à construire sans que les briques ne se désintègrent. Il doit rester "construit" même quand le monde change.
  2. La Stabilité (Ne pas devenir fou) :
    • Analogie : Si vous apprenez une nouvelle compétence, vous ne devez pas oublier comment marcher. Le système ne doit pas "divaguer" ou devenir incontrôlable quand il s'adapte à une nouvelle tâche. C'est comme un skieur qui change de pente : il doit rester debout, pas tomber dans le ravin.
  3. La Capacité (Ne pas se noyer) :
    • Analogie : Si vous ajoutez trop d'informations à votre cerveau, vous devenez confus. Le système doit savoir "oublier" intelligemment ou compresser ses connaissances pour ne pas devenir trop lourd et inefficace. Il doit garder son esprit clair.
  4. L'Invariance Évaluative (Garder ses valeurs) :
    • C'est le point le plus important. Imaginez que vous apprenez à conduire une voiture. Vous pouvez apprendre à conduire sur la route, sur la glace, ou dans la boue (changement de régime), mais vous ne devez jamais apprendre à dire "tuer des piétons est une bonne chose".
    • Le SMGI dit que les règles morales (ce qui est "bien" ou "mal") doivent être protégées. Même si l'IA change de tâche, son "boussole morale" ne doit pas tourner.

4. Pourquoi c'est révolutionnaire ?

Aujourd'hui, on essaie de rendre les IA plus sûres en ajoutant des filtres externes (comme un pare-chocs sur une voiture). Le SMGI dit : Non, la sécurité doit être intégrée dans le moteur.

  • Avant : On construit un moteur puissant, et on espère qu'il ne va pas exploser. Si ça explose, on met un extincteur.
  • Avec SMGI : On construit le moteur de telle sorte qu'il est physiquement impossible qu'il explose, même si on change de carburant. La sécurité fait partie de la structure même de l'IA.

En résumé

Ce papier ne dit pas "Comment faire une IA plus intelligente ?". Il dit : "Comment faire une IA qui reste elle-même, stable et sûre, même quand le monde autour d'elle change complètement ?"

Il transforme la question de l'intelligence artificielle :

  • L'ancienne question : "Combien de tâches cette IA peut-elle résoudre ?"
  • La nouvelle question (SMGI) : "Cette IA peut-elle changer de règles, d'outils et d'environnements sans perdre son identité ni devenir dangereuse ?"

C'est un passage de la puissance brute (plus de données, plus de paramètres) à la structure intelligente (capacité à évoluer de manière contrôlée). C'est la différence entre avoir un marteau très lourd et savoir construire une maison entière, même si le terrain change sous vos pieds.