On the Explainability of Vision-Language Models in Art History

本文通过结合零样本定位实验与人类可解释性研究,评估了七种可解释人工智能方法在艺术史语境下对 CLIP 等视觉 - 语言模型视觉推理的阐释能力,发现其有效性取决于所考察类别的概念稳定性与表征可用性。

Stefanie Schneider

发布于 2026-02-25
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文探讨了一个非常有趣的问题:当我们让 AI 看艺术画时,它到底“看”到了什么?我们又能相信它的解释吗?

想象一下,你有一个超级聪明的机器人(AI 模型,比如 CLIP),它读过互联网上数以亿计的图片,并且能听懂人类的语言。如果你给它看一幅画,然后问它:“画里的蛇在哪里?”或者“画里那个悲伤的人是谁?”,它能回答出来。

但是,这个机器人是个“黑盒子”。它虽然能给出答案,但我们不知道它的大脑里是怎么思考的。为了解开这个谜题,研究人员使用了各种“探照灯”工具(也就是可解释性 AI 方法,XAI),试图照亮机器人做出决定的区域,让我们看到它到底盯着画的哪一部分。

这篇文章就像是一场**“探照灯大比拼”**,主要做了两件事:

1. 第一次实验:像考试一样“找茬”

研究人员找来了两本巨大的“艺术画册”(包含近 2000 幅名画),上面已经由专家标好了答案(比如:这里有个“蛇”,那里有个“圣母”)。

他们让 7 种不同的“探照灯”工具去工作,看看谁能最准确地圈出这些物体。

  • 结果: 有一个叫 CLIP Surgery 的工具表现最好,就像是一个戴着高倍放大镜的侦探,能最精准地找到目标。
  • 但是: 即使是最聪明的工具,在面对一些抽象概念(比如“悲伤”、“神圣”)或者非常小的物体时,也会变得晕头转向,圈错地方。这就好比让机器人找“悲伤”,它可能找不到一个具体的“悲伤”物体,因为它在训练数据里只见过具体的“哭泣的脸”,没见过抽象的“悲伤”。

2. 第二次实验:像开研讨会一样“问人”

光有机器打分还不够,因为艺术是给人看的。研究人员找来了 33 位懂艺术的人(从学生到专家),让他们看同一幅画,然后让他们自己圈出重要的地方。接着,再把那 7 种“探照灯”生成的图给他们看,问他们:“哪张图最像你们圈出来的?”

  • 结果: 大家普遍喜欢 CLIP SurgeryLeGradScoreCAM 生成的图。
  • 有趣的发现:
    • 如果画的是具体的东西(比如“桥”、“蛇”、“脚”),大家的意见很统一,机器也能猜对。
    • 如果画的是抽象或复杂的概念(比如“欲望”、“斯芬克斯”),大家就会吵起来,有的圈这里,有的圈那里,机器也跟着糊涂了。
    • 最扎心的真相: 有时候,连人类专家对“画里到底是谁”都有分歧(比如《哀悼基督》画里有三个叫玛利亚的女人,长得都很像,谁是谁很难分清)。这时候,机器如果只圈出了最显眼的一个,也不能说它完全错了。

核心比喻:机器眼中的“艺术”是什么?

作者用了一个很棒的比喻来总结:

想象一下,CLIP 模型就像是一个看过无数照片的“统计学家”。它并不真正理解艺术的历史、情感或文化背景。它只是把“蛇”这个概念,和它见过的所有“蛇”的图片在数学上进行了平均。

  • 当概念很稳定时(比如“蛇”总是长那样),机器能看得很清楚。
  • 当概念很模糊时(比如“欲望”或“神圣”),机器就找不到具体的“锚点”了,因为它的数据库里没有统一的“欲望模板”。

这篇文章告诉我们要什么?

  1. 不要盲目相信“热力图”: 那些红红绿绿的“探照灯”图,虽然看起来很有说服力,但它们展示的只是机器**“关注了哪里”,而不是机器“理解了什么”**。
  2. 艺术需要“人”来解读: 机器可以帮我们快速检索或定位,但它无法替代人类艺术史学家那种充满文化、历史和情感深度的“凝视”。
  3. 解释是双向的对话: 真正的“可解释性”不是机器给人类一个标准答案,而是机器和人类之间的一场对话。我们需要意识到,机器看到的“世界”,其实是互联网大数据的统计投影,里面充满了偏见和缺失。

一句话总结:
这篇论文告诉我们,虽然现在的 AI 能像侦探一样在名画里找东西,而且有些工具(如 CLIP Surgery)找得挺准,但AI 并不真正“懂”艺术。那些彩色的解释图,更像是机器在向我们展示它的“注意力”,而不是它的“智慧”。在艺术史领域,我们依然需要人类专家那双充满故事的眼睛,来填补机器留下的空白。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →