ThaiSafetyBench: Assessing Language Model Safety in Thai Cultural Contexts

Ce travail présente ThaiSafetyBench, un benchmark open-source de 1 954 prompts malveillants en thaï conçu pour évaluer la sécurité des modèles de langage dans un contexte culturel spécifique, révélant que les attaques ancrées dans la culture thaïlandaise sont plus efficaces que les attaques générales et que les modèles open-source sont moins robustes que leurs équivalents propriétaires.

Trapoom Ukarapol, Nut Chukamphaeng, Kunat Pipatanakul, Pakhapoom Sarapat

Publié 2026-03-06
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Imaginez que vous venez d'ouvrir une immense bibliothèque mondiale remplie de livres écrits par des intelligences artificielles (les "LLM"). La plupart de ces livres sont en anglais, et on a passé des années à vérifier qu'ils ne racontent pas de bêtises dangereuses ou ne disent pas de méchancetés. Mais, il y a un gros problème : que se passe-t-il quand on parle la langue thaïe ?

C'est exactement ce que l'équipe derrière ce papier (ThaiSafetyBench) a voulu explorer. Voici l'histoire de leur découverte, racontée simplement.

🇹🇭 Le Problème : La "Cassette" qui ne tourne pas bien

Jusqu'à présent, les tests de sécurité des IA étaient comme des examens de conduite donnés uniquement sur des routes anglaises. Si une voiture (une IA) est parfaite sur ces routes, on suppose qu'elle est sûre partout.
Mais en Thaïlande, la culture est différente. Il y a des règles de politesse, des sujets sensibles (comme la monarchie), des blagues locales et des façons de parler uniques. Les chercheurs ont découvert que les IA, même celles qui sont très intelligentes, échouent souvent quand on leur pose des questions pièges spécifiques à la culture thaïe. C'est comme si une voiture savait conduire à Londres, mais paniquait dès qu'elle arrivait sur un marché thaïlandais bondé.

🛠️ La Solution : Le "ThaiSafetyBench" (Le Terrain d'Entraînement)

Pour régler ce problème, les auteurs ont créé un nouveau terrain d'entraînement appelé ThaiSafetyBench.

  • C'est quoi ? Une liste de 1 954 questions pièges (des "prompts") écrites en thaï.
  • Le contenu ? Certaines questions sont des pièges classiques (comme "Comment fabriquer une bombe ?"), mais beaucoup d'autres sont des pièges culturels. Par exemple : "Comment insulter quelqu'un sans qu'il le sache ?" ou "Comment contourner les règles sur la monarchie ?".
  • L'objectif : Voir quelles IA résistent à ces attaques et lesquelles craquent.

🧪 Le Test : 24 IA mises à l'épreuve

Les chercheurs ont fait passer ce test à 24 robots intelligents différents :

  1. Les géants fermés (comme GPT-4, Claude) : Ceux qui sont payants et gardés sous clé.
  2. Les modèles ouverts (comme Llama, Qwen) : Ceux que tout le monde peut télécharger et modifier.
  3. Des modèles spécialisés pour l'Asie du Sud-Est ou la Thaïlande.

Le verdict ?

  • Les géants fermés (les "VIP") ont généralement bien résisté. Ils ont dit "Non" aux questions dangereuses.
  • Les modèles ouverts ont souvent craqué. C'est inquiétant, car ce sont eux que les développeurs utilisent pour construire de nouvelles applications.
  • La surprise : Les IA échouent beaucoup plus souvent quand l'attaque est culturellement thaïe que quand elle est juste en thaï mais générique. C'est comme si l'IA comprenait la langue, mais pas les "codes" de la société.

🤖 L'Outil Magique : Le "Gardien" (ThaiSafetyClassifier)

Vérifier manuellement si une IA a dit une bêtise prend du temps et coûte cher (il faut des humains ou des IA très puissantes).
Pour aider tout le monde, les chercheurs ont entraîné un petit robot "gardien" (basé sur un modèle appelé DeBERTa).

  • Son rôle : Il lit la question et la réponse de l'IA, puis dit instantanément : "Sûr" ou "Dangereux".
  • Son efficacité : Il est aussi bon que les experts humains (90% de fiabilité) mais beaucoup plus rapide et gratuit. C'est comme avoir un détecteur de mensonges automatique pour la culture thaïe.

🏆 Le Tableau d'Honneur (Leaderboard)

Enfin, ils ont créé un classement public (comme un tableau des scores au golf).

  • N'importe quel développeur peut envoyer son modèle pour voir où il se place.
  • Cela encourage tout le monde à faire des IA plus sûres, car personne ne veut être en bas du classement !

💡 En résumé

Ce papier nous dit une chose importante : La sécurité de l'IA ne peut pas être "universelle". On ne peut pas juste traduire des règles anglaises en thaï. Il faut comprendre la culture, les nuances et les valeurs locales pour vraiment protéger les gens.

Les chercheurs ont fourni la carte (le dataset), le test (le benchmark), le gardien (le classifieur) et le tableau d'honneur pour aider la communauté à construire des IA qui respectent vraiment la culture thaïe. C'est un grand pas vers des robots plus polis et plus sûrs pour tout le monde !