From Threat Intelligence to Firewall Rules: Semantic Relations in Hybrid AI Agent and Expert System Architectures

Cet article propose une architecture neuro-symbolique hybride combinant des agents intelligents et un système expert pour transformer automatiquement les rapports de renseignement sur les cybermenaces en règles de pare-feu CLIPS, en exploitant les relations sémantiques hyperonyme-hyponyme pour garantir des réponses de sécurité rapides et fiables.

Chiara Bonfanti, Davide Colaiacomo, Luca Cagliero, Cataldo Basile

Publié 2026-03-05
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple et imagée de ce papier de recherche, comme si on racontait une histoire autour d'un café.

🛡️ Le Problème : Une course de vitesse déséquilibrée

Imaginez que la sécurité de nos sites web est comme la garde d'un château.

  • Les attaquants (les pirates) sont comme des cambrioleurs malins. Ils n'ont besoin de trouver qu'une seule petite porte mal fermée pour entrer.
  • Les défenseurs (les gardes) doivent surveiller toutes les portes, les fenêtres et les murs en même temps. C'est épuisant !

Aujourd'hui, les pirates utilisent l'Intelligence Artificielle (IA) pour trouver ces portes plus vite. Les humains, eux, sont trop lents pour réagir. Ils doivent lire des rapports complexes sur les nouvelles menaces (ce qu'on appelle l'Intelligence des Menaces Cybernétiques ou CTI) et décider quoi faire. C'est souvent trop long et trop compliqué.

🤖 La Solution : Une équipe de "Super-Gardes" hybrides

Les auteurs de ce papier proposent une nouvelle équipe pour aider les gardes. Cette équipe est un mélange de deux types d'IA :

  1. L'IA "Agente" (Le Traducteur Intelligent) : C'est un grand cerveau qui lit les rapports pirates.
  2. L'IA "Expert" (Le Constructeur de Règles) : C'est un système très rigoureux qui écrit les codes pour fermer les portes.

Leur but ? Transformer un rapport de menace écrit en langage humain en règles de pare-feu (des instructions automatiques pour bloquer les pirates) en quelques secondes.

🔍 Le Secret : La "Clé Sémantique" (Hyperonymes et Hyponymes)

C'est ici que ça devient intéressant. Comment faire comprendre à l'IA ce qu'il faut bloquer sans se tromper ?

Imaginez que vous lisez un rapport qui dit : "Le pirate a utilisé un 'cheval de Troie' pour voler des données."

  • Si vous demandez à une IA classique de chercher "cheval de Troie", elle peut être perdue.
  • Cette nouvelle méthode utilise une astuce linguistique appelée relations sémantiques (hyperonymes et hyponymes).

L'analogie de l'arbre généalogique :

  • Hyponyme (L'enfant) : C'est le mot précis. Exemple : "Cheval de Troie".
  • Hyperonyme (Le parent) : C'est la catégorie générale. Exemple : "Malware" (Logiciel malveillant).

Le système fonctionne comme un détective qui ne regarde pas juste le mot exact, mais qui comprend la famille du mot.

  1. Il lit "Cheval de Troie".
  2. Il comprend que c'est un type de "Malware".
  3. Il comprend que le "Malware" fait partie de la catégorie "Attaque réseau".
  4. Grâce à cette compréhension en cascade, il sait exactement quelle règle de sécurité appliquer, même si le rapport utilise des mots différents ou des termes techniques obscurs.

C'est comme si le détective ne cherchait pas juste "la voiture rouge", mais comprenait qu'il doit bloquer "tous les véhicules" pour être sûr de ne rien rater.

🏗️ L'Usine à Règles (Le Système Hybride)

Le processus se déroule en trois étapes, comme une chaîne de montage :

  1. L'Extraction (Le Lecteur) : L'IA lit le rapport et identifie les mots-clés (les "enfants" et les "parents").
  2. La Traduction (Le Traducteur) : Elle transforme ces mots en concepts abstraits (ex: "Il faut bloquer les logiciels malveillants").
  3. La Construction (Le Bâtisseur) : Un système très strict (appelé CLIPS, un peu comme un robot maçon) prend ces concepts et écrit le code exact pour le pare-feu.

Pourquoi deux IA ?
L'IA "Traductrice" est créative mais peut faire des erreurs (hallucinations). L'IA "Bâtisseuse" est rigide et ne fait jamais d'erreur de grammaire. En les mettant ensemble, on a la créativité pour comprendre le problème et la rigueur pour construire la solution sans bug.

📊 Les Résultats : Qui gagne ?

Les chercheurs ont testé leur système avec de vrais rapports de sécurité.

  • Résultat : Leur méthode a beaucoup mieux compris les menaces que les méthodes classiques (comme celles qui utilisent juste des mots-clés).
  • L'avantage : Même quand il y a très peu d'exemples d'une nouvelle menace (ce qui arrive souvent), leur système arrive à deviner la bonne solution grâce à sa compréhension des "familles de mots".
  • La précision : Les règles de pare-feu générées ont été validées par des experts humains qui ont trouvé qu'elles étaient correctes et utiles.

🚀 En résumé

Ce papier nous dit que pour protéger nos données, on ne doit plus seulement compter sur des humains qui lisent des rapports, ni sur des IA qui devinent au hasard.

Il faut créer une équipe hybride :

  • Une IA qui comprend le sens profond des mots (comme un linguiste).
  • Une IA qui écrit du code parfait (comme un ingénieur).

C'est comme passer d'un gardien qui lit un journal pour voir s'il y a des voleurs, à un gardien qui a un assistant robot capable de lire le journal, de comprendre la menace, et de verrouiller instantanément la bonne porte, sans jamais se tromper.