On the Explainability of Vision-Language Models in Art History

Cet article examine comment les méthodes d'IA explicable peuvent rendre le raisonnement visuel des modèles vision-langage (comme CLIP) compréhensible dans le contexte de l'histoire de l'art, en démontrant que leur efficacité dépend de la stabilité conceptuelle et de la disponibilité représentationnelle des catégories étudiées.

Stefanie Schneider

Publié 2026-02-25
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🎨 Le Détective et le Tableau : Quand l'IA essaie de comprendre l'Art

Imaginez que vous avez un super-détective robot (appelé "CLIP" dans le papier) qui a vu des milliards de photos sur Internet. Ce robot est très fort pour associer des mots à des images. Si vous lui dites "chat", il trouve des chats. Si vous lui dites "pomme", il trouve des pommes.

Mais que se passe-t-il si vous lui montrez un tableau complexe de la Renaissance et que vous lui demandez : "Où est le serpent ?" ou "Montre-moi la tristesse de Marie ?". Le robot va-t-il pointer du doigt le bon endroit ? Et si oui, comment le sait-il ?

C'est exactement ce que l'auteure, Stefanie Schneider, a voulu découvrir. Elle s'est demandé : "Comment pouvons-nous voir ce que le robot voit vraiment, et est-ce que c'est la même chose que ce que nous, humains, voyons ?"

Voici les trois grandes étapes de son enquête, expliquées avec des analogies :

1. Le Problème : Le Robot a les yeux bandés (mais il devine bien)

Le robot CLIP est comme un étudiant qui a lu tous les livres du monde mais qui n'a jamais visité de musée. Il connaît les mots, mais il ne comprend pas l'histoire derrière les tableaux.

  • L'analogie : Imaginez que vous demandez à quelqu'un qui n'a jamais vu de peinture de vous expliquer un tableau de la Cène. Il pourrait vous dire "il y a des gens autour d'une table", mais il pourrait se tromper sur qui est Judas ou sur le sens du geste de Jésus.
  • Le but de l'étude : L'auteure veut utiliser des outils spéciaux (appelés XAI ou "Intelligence Artificielle Explicable") pour enlever les bandeaux du robot et voir sur quoi il se concentre quand il répond. Ces outils créent une "carte de chaleur" (une image où les zones importantes sont rouges).

2. L'Expérience : La course des détectives

Pour tester cela, l'auteure a organisé une compétition entre 7 méthodes différentes (7 façons de créer ces cartes de chaleur). Elle les a mises à l'épreuve sur deux types de terrains :

  • Terrain A (Les données brutes) : Elle a utilisé des milliers de tableaux avec des étiquettes précises (ex: "cette zone contient un ange"). Elle a mesuré qui trouvait le mieux l'ange.
    • Résultat : Un détective nommé "CLIP Surgery" a gagné haut la main. Il est comme un chirurgien qui sait exactement où couper pour voir le cœur du problème. Il a devancé les autres méthodes, même celles qui sont très connues.
  • Terrain B (L'humain) : Elle a demandé à des étudiants en histoire de l'art de regarder les mêmes tableaux et de dire : "Moi, je pense que le détective devrait regarder ici." Ensuite, ils ont classé les cartes de chaleur des robots du meilleur au pire.
    • Résultat : Les humains ont aussi préféré "CLIP Surgery". Mais attention ! Quand la tâche était floue (par exemple : "trouve la jalousie" ou "trouve le péché"), même les humains ne s'accordaient pas. Le robot, lui, était perdu.

3. La Révélation : Ce que le robot voit n'est pas ce que nous voyons

C'est la partie la plus importante et la plus philosophique de l'étude.

  • L'analogie du miroir déformant : Les cartes de chaleur (les cartes rouges) montrent où le robot a regardé, mais elles ne montrent pas pourquoi.

    • Si le robot pointe sur un "serpent" dans un tableau, c'est peut-être parce qu'il a vu des serpents dans des photos de zoos sur Internet, pas parce qu'il comprend le symbolisme biblique du serpent dans l'histoire d'Adam et Ève.
    • Le robot ne "comprend" pas l'art comme un historien. Il ne voit que des motifs statistiques. C'est comme si vous regardiez une carte météo : elle vous dit qu'il va pleuvoir (le robot voit le mot "pluie"), mais elle ne vous dit pas que c'est triste ou romantique (l'émotion humaine).
  • Le piège de la simplicité : Plus un objet est simple et grand (comme un "pont" ou un "pont"), plus le robot est bon. Plus l'objet est abstrait ou dépend du contexte (comme "la tristesse" ou "une vierge spécifique"), plus le robot échoue.

    • Exemple : Dans un tableau, il y a trois femmes qui pleurent. Pour un humain expert, on peut distinguer Marie Madeleine de la Vierge Marie. Pour le robot, ce sont juste "trois femmes qui pleurent". Il ne peut pas faire la différence, peu importe la méthode utilisée pour le "révéler".

🏁 La Conclusion en une phrase

Ces cartes de chaleur sont comme des lunettes magiques qui nous montrent où le robot regarde, mais elles ne nous disent pas ce qu'il pense.

Pour l'histoire de l'art, cela signifie que nous ne pouvons pas faire confiance aveuglément à l'IA. Nous devons utiliser ces outils avec prudence : ils sont excellents pour trouver des objets simples, mais ils échouent souvent à comprendre les histoires complexes et les émotions profondes des tableaux. L'IA nous aide à voir, mais c'est à nous, humains, de donner du sens à ce que nous voyons.

En résumé : L'IA est un excellent photographe qui sait où pointer son objectif, mais elle a besoin d'un historien pour lui expliquer l'histoire derrière la photo.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →