Extracting Recurring Vulnerabilities from Black-Box LLM-Generated Software

Cet article présente FSTab, un cadre d'évaluation et d'attaque en boîte noire capable de prédire et de quantifier la persistance de vulnérabilités récurrentes dans le code généré par des LLMs, révélant ainsi des risques de sécurité systémiques même dans des domaines non vus lors de l'entraînement.

Tomer Kordonsky, Maayan Yamin, Noam Benzimra, Amit LeVi, Avi Mendelson

Publié 2026-03-10
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Le Titre : "Détecter les failles cachées en regardant juste la façade"

Imaginez que vous achetez une maison construite par un robot très doué, mais un peu prévisible. Ce robot (une Intelligence Artificielle ou IA) peut construire des milliers de maisons en quelques secondes. Le problème ? Ce robot a tendance à utiliser toujours les mêmes plans pour les mêmes pièces.

Si ce robot a une habitude dangereuse (par exemple, il oublie toujours de mettre une serrure solide sur la porte de derrière quand il construit une cuisine), alors toutes les maisons qu'il construit avec une cuisine auront cette même faille, même si vous ne pouvez pas voir l'arrière de la maison.

C'est exactement ce que les chercheurs ont découvert avec les logiciels créés par les IA (comme GPT, Claude, etc.).


🏠 L'Analogie de la "Carte au Trésor" (FSTab)

Les chercheurs ont créé un outil appelé FSTab (Tableau Fonction-Sécurité). Pour le comprendre, imaginons une situation simple :

  1. La Façade (Ce que vous voyez) : Quand vous visitez un site web, vous voyez des boutons : "Se connecter", "Télécharger un fichier", "Payer". Ce sont les fonctionnalités visibles.
  2. La Cuisine (Ce qui est caché) : Derrière ces boutons, il y a du code complexe qui gère les mots de passe et les données bancaires. C'est le backend, souvent invisible.
  3. Le Problème : Habituellement, pour trouver un bug de sécurité, il faut être un hacker et regarder le code caché. Mais si le site est protégé, c'est impossible.

La solution des chercheurs :
Ils ont remarqué que l'IA est comme un cuisinier qui utilise toujours la même recette.

  • Si vous voyez un bouton "Se connecter" (Façade), l'IA a 90% de chances d'avoir utilisé la même mauvaise recette pour gérer les mots de passe (Cuisine).
  • Si vous voyez un bouton "Télécharger un fichier", l'IA a tendance à oublier le même type de sécurité.

Le FSTab est une sorte de dictionnaire magique ou de carte au trésor.

  • Entrée : Vous dites à la carte : "Je vois un bouton 'Se connecter'".
  • Sortie : La carte vous dit : "Attention ! Si ce site a été fait par l'IA 'GPT-5', il y a 94% de chances qu'il y ait une faille de sécurité cachée juste derrière ce bouton."

Vous n'avez même pas besoin de voir le code ! Juste en regardant ce que l'utilisateur voit, vous pouvez deviner ce qui ne va pas dans l'ombre.


🧩 Comment ça marche en pratique ? (L'histoire du détective)

Imaginons un détective (le pirate) qui veut tester un nouveau site web créé par une IA, disons "Claude-4.5".

  1. L'Observation (Reconnaissance) : Le détective arrive sur le site. Il voit un formulaire "Réinitialiser le mot de passe".
  2. La Consultation (FSTab) : Il sort son carnet (le FSTab) qui dit : "Pour l'IA Claude, le bouton 'Réinitialiser mot de passe' est souvent associé à une faille de sécurité spécifique."
  3. L'Attaque : Au lieu de deviner au hasard, le détective sait exactement où frapper. Il teste cette faille précise.
  4. Le Résultat : Boom ! Il trouve la faille.

Le résultat choc : Les chercheurs ont montré que cette méthode fonctionne incroyablement bien. Même si le site est dans un domaine totalement différent (par exemple, un site de blog vs un site de banque), si c'est la même IA qui l'a construit, elle garde les mêmes "tics" de sécurité.


📊 Les Découvertes Majeures (En termes simples)

Les chercheurs ont testé cela sur les IA les plus célèbres (GPT-5, Claude, Gemini, etc.) et ont trouvé trois choses surprenantes :

  1. L'IA a une "Signature" de sécurité : Tout comme un humain a une écriture unique, chaque IA a un style de code. Si l'IA "Grok" oublie souvent de verrouiller les fenêtres, elle le fera toujours, peu importe le projet. C'est une empreinte digitale de la vulnérabilité.
  2. C'est prévisible : Même si vous changez la façon dont vous demandez à l'IA de faire le site (en reformulant la demande), elle continuera à faire les mêmes erreurs de sécurité. C'est comme si vous demandiez à un enfant de dessiner un chat en disant "Fais un chat" ou "Dessine un animal poilu", il dessinera toujours le même chat avec les mêmes oreilles pointues.
  3. Le danger est partout : Le pire, c'est que cette méthode fonctionne même si vous n'avez jamais vu le modèle s'entraîner sur ce type de projet. L'IA transfère ses mauvaises habitudes d'un domaine à l'autre.

🛡️ Pourquoi c'est important pour nous ?

Aujourd'hui, de plus en plus de développeurs utilisent l'IA pour écrire du code. C'est rapide et efficace. Mais ce papier nous met en garde :

  • Le risque : Nous risquons de construire des millions de logiciels avec les mêmes failles cachées, comme construire des millions de maisons avec la même serrure cassée.
  • La bonne nouvelle : Grâce à cet outil (FSTab), les experts en sécurité peuvent maintenant prévoir les problèmes avant même que le logiciel ne soit fini. Ils peuvent dire : "Attends, ce bouton 'Payer' ressemble à un bouton qui a déjà causé des problèmes avec cette IA. Vérifions-le immédiatement."

En résumé

Ce papier nous dit que les IA ne sont pas seulement de superbes architectes, mais qu'elles ont aussi des tics de construction dangereux et répétitifs.

L'outil FSTab est comme un détecteur de métaux pour les logiciels : il vous dit "Attention, sous ce bouton visible, il y a probablement une bombe cachée" simplement en regardant la façade du bâtiment, sans avoir besoin de le démolir pour voir à l'intérieur. C'est une révolution pour sécuriser le futur du code généré par l'IA.