GIFT: A Framework Towards Global Interpretable Faithful Textual Explanations of Vision Classifiers

この論文は、視覚モデルの決定プロセスを説明する際、忠実性や曖昧さの問題を解決し、局所的な視覚的対照例を自然言語に変換・集約して検証する「GIFT」というフレームワークを提案し、視覚分類モデルに対するグローバルで解釈可能かつ忠実なテキスト説明の実現を目指しています。

Éloi Zablocki, Valentin Gerard, Amaia Cardiel, Eric Gaussier, Matthieu Cord, Eduardo Valle

公開日 2026-02-23
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

GIFT: AI の「思考」を日本語で解説する魔法の箱

この論文は、**「AI がなぜその判断を下したのか?」**という謎を解き明かすための新しい仕組み「GIFT」を紹介しています。

従来の AI 解説ツールは、AI の判断理由を「あちこちが光っている画像(サリエンシーマップ)」や「専門用語の羅列」で示すことが多く、人間には分かりにくかったり、AI の本当の理由とはズレていたりすることがありました。

GIFT は、**「AI の思考プロセスを、人間が読める『物語』として翻訳し、さらにその物語が本当かどうかを検証する」**という、4 つのステップで構成されるフレームワークです。


🎁 GIFT とは何か?(名前の意味)

GIFT は、Global(全体像)、Interpretable(解釈可能)、Faithful(忠実)、Textual(テキスト)の頭文字をとっています。
つまり、**「AI の全体像を、人間が理解できる言葉で、かつ嘘なく説明する」**というゴールを持っています。


🕵️‍♂️ GIFT の 4 つのステップ(物語の作り方)

GIFT は、AI の判断理由を解き明かすために、まるで探偵が事件を解決するかのような 4 つのステップを踏みます。

ステップ 1:「もしも」のシナリオを作る(反事実の生成)

AI に「なぜこの画像を『猫』だと判断したの?」と聞いても、AI は答えられません。そこで、GIFT は**「もしも、この画像の『耳』を消したらどうなる?」**という実験をします。

  • アナロジー: 料理の味見です。「もし塩を入れなかったら、味がどう変わるか?」を試すように、AI が「猫」と判断した画像から「耳」を消してみます。
  • 結果: 耳を消したら AI が「猫」ではなく「何者か」に変化したなら、「耳」が判断の鍵だったことが分かります。これを「反事実(Counterfactual)」と呼びます。

ステップ 2:画像の変化を「言葉」に翻訳する

AI が「耳を消したら変化した」という結果を出しても、それはまだ画像のデータです。人間には分かりにくいです。
そこで、GIFT は**「画像の変化を説明する AI(VLM)」**を使います。

  • アナロジー: 料理の味見の結果を、シェフが「塩が足りなかったから味が薄かった」と言葉で説明するようなものです。
  • 結果: 「画像の左側にある赤い車が消えた」「背景の空が青くなった」といった、人間が読めるテキストに変換されます。

ステップ 3:小さなヒントを「大きな物語」にまとめる

ステップ 2 で得られた「耳が重要」「赤い車が重要」といった小さなヒントは、一つ一つはバラバラです。
ここで、**「超賢い AI(LLM)」**が登場します。この AI は、数百・数千の小さなヒントを読み込み、共通点を見つけ出します。

  • アナロジー: 多くの料理人の「味見メモ」を集めて、料理長が**「この料理の成功の秘訣は『塩とコショウのバランス』だ!」という全体ルール**を導き出すようなものです。
  • 結果: 「この AI は、赤い金属の物体がある画像を『クラス 1』と判断する」といった、グローバルなルール(全体像)が生まれます。

ステップ 4:物語が「本当か」を検証する(ここが重要!)

ここが GIFT の最大の特徴です。ステップ 3 で導き出された「赤い金属の物体が重要」という物語が、本当に AI の理由なのか、単なる勘違い(ハルシネーション)なのかを実験で確かめます

  • アナロジー: 「この料理は塩が重要だ」という説が本当か確かめるために、実際に塩を足したり引いたりして、味が本当に変わるか実験するようなものです。
  • 方法: 画像編集 AI を使って、「赤い金属の物体」を画像に追加したり消したりします。
    • 追加したら AI の判断が変わった? → 本当の理由だ!(忠実)
    • 変わらなかった? → 嘘だった!(捨て去る)
  • 結果: 実験で証明された「本当の理由」だけが、最終的な解説として残ります。

🌟 GIFT が解き明かした驚きの発見

このフレームワークを使って、実際に AI の「隠れた癖」を見つけ出しました。

  1. 合成画像(CLEVR): 複雑な組み合わせの画像で、AI が「赤い金属の球体」にだけ反応しているルールを正確に発見しました。
  2. 顔画像(CelebA): 「年寄り」と判断する AI が、単に「シワ」だけでなく、「メガネ」や「背景のディテール」にも過剰に反応している(バイアス)ことを発見しました。
  3. 運転シーン(BDD): 「右折可能か」を判断する AI が、「左側の車線に車がいると、右折できない」という、本来関係ない偏見(バイアス)を持っていたことを暴き出しました。人間が見ても気づきにくいこの偏見を、GIFT は「左側の車線に車がいると右折できない」という明確な言葉で指摘しました。

💡 まとめ:なぜ GIFT はすごいのか?

  • 人間に優しい: 難解な数式や画像ではなく、「AI はこう考えています」という文章で説明してくれます。
  • 嘘をつかない: 単に「こう見えるから」という推測ではなく、**「実際に操作して結果が変わったから、これは本当の理由だ」**と科学的に証明しています。
  • 偏見を見つけられる: AI が学習データから無意識に学んでしまった「偏見」や「勘違い」を、人間には見つけにくい部分から発掘してくれます。

GIFT は、AI という「黒い箱」を、人間が信頼して使えるようにするための、**「透明な窓」と「検証ツール」**を提供する画期的な仕組みなのです。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →