Evaluation of Deontic Conditional Reasoning in Large Language Models: The Case of Wason's Selection Task

この論文は、新しい義務的モダリティを明示的に符号化したワソン選択課題データセットを用いて大規模言語モデルを評価した結果、人間と同様に義務的ルールにおいて推論能力が高く、一致バイアスに似た誤りパターンを示すことを明らかにしました。

Hirohiko Abe, Kentaro Ozeki, Risako Ando, Takanobu Morishita, Koji Mineshima, Mitsuhiro Okada

公開日 2026-03-09
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(大規模言語モデル)が、人間と同じように『ルールに従う思考』ができるのか?」**という問いを、心理学の有名な実験を使って調べた研究です。

わかりやすく説明するために、**「AI という新人店員」「店長のルール」**という設定で考えてみましょう。

1. 実験の舞台:「カードの裏側を当てるゲーム」

研究者たちは、AI に**「ワソン選択課題」というゲームをさせました。
これは、
「もし A なら、B である」**というルールが正しいかどうかを、4 枚のカードから選んで検証するゲームです。

  • カード 1: A(表)
  • カード 2: A ではない(表)
  • カード 3: B(表)
  • カード 4: B ではない(表)

正解のロジック:
ルールに違反しているカード(A なのに B ではないもの)を見つける必要があります。つまり、「A」のカードと「B ではない」カードの 2 枚を選ぶのが正解です。

2. 2 つの異なる「ルール」の世界

この実験では、2 種類のルールを使いました。

  1. 抽象的なルール(記述的ルール)
    • 例:「もしカードに奇数が書いてあれば、裏は大文字である」
    • これは、現実の生活と関係ない、ただの数字と文字のルールです。
  2. 社会的なルール(義務的ルール)
    • 例:「もしがこぼれていたら、看護師は手袋をしなければならない」
    • これは、現実の社会や道徳に関わる「義務」や「禁止」のルールです。

3. 発見された 2 つの驚きの事実

① AI は「義務」のルールの方が得意だった!

人間は、数字や文字だけのルール(抽象的)だとバカらしく間違えやすいですが、血や手袋のような「義務」のルールだと、なぜかすごく上手に正解します。これは「人間は社会的なルールには敏感だ」という特徴です。

今回の結果:
AI も人間と同じ傾向を見せました!

  • 抽象的なルールでは、AI は結構間違えました。
  • しかし、「手袋をしなければならない」といった義務のルールになると、AI の正解率がグッと上がりました。
  • メタファー: AI は、単なる「暗記テスト」より、「店長の『お客様に親切にしろ』という命令」の方が、なぜかよく理解して実行できるようです。

② AI の間違いは「確認バイアス」ではなく「マッチングバイアス」だった

AI が間違えるとき、なぜ間違えるのか?研究者は 2 つの仮説を比べました。

  • 仮説 A:確認バイアス(「自分の正しさを証明したい」)
    • ルールを肯定する証拠だけを集めようとする癖。
    • 「奇数なら大文字」なら、「奇数」も「大文字」も両方選んで「ほら、合ってる!」と喜びたがるタイプ。
  • 仮説 B:マッチングバイアス(「言葉が似てるから選ぶ」)
    • ルールに出てきた**「単語そのもの」**に引き寄せられて、論理的な「否定(〜ではない)」を無視してしまう癖。
    • 「奇数なら大文字ではない」というルールでも、「大文字」という言葉が出てくるから、ついつい「大文字」のカードを選んでしまうタイプ。

今回の結果:
AI の間違いは、「仮説 B(マッチングバイアス)」に似ていました。
AI は、ルールに出てきた「血」や「手袋」という
単語にひかれて
、論理的な「否定(〜してはいけない)」の部分を無視して、言葉が一致するカードを選んでしまう傾向がありました。

  • メタファー:
    AI は、ルールを深く理解して「なぜダメなのか」を考えるというよりは、**「ルールに書いてあるキーワード(血、手袋)が目に入ると、ついついそれに関連するカードを指差してしまう」**という、少し表面的な反応をしているようです。

4. この研究が教えてくれること

  1. AI も「文脈」で変わる:
    AI は万能な天才ではなく、人間と同じように「社会的なルール(義務)」がある場面では、より賢く振る舞うことがわかりました。
  2. AI の弱点は「言葉の罠」:
    AI の間違いは、論理を完全に無視しているわけではなく、「ルールに出てきた言葉に引きずられ、否定の意味(〜しない)を見逃す」という、人間にもあるような**「言葉の罠」**にハマっていることがわかりました。

まとめ

この論文は、**「AI は人間と同じように、社会的なルールには敏感だが、言葉の否定表現(〜しない)にはついつい引っかかる」**ということを、新しい実験で証明しました。

AI をより賢くするためには、単に知識を増やすだけでなく、「言葉の否定表現」や「論理的な矛盾」を正しく理解させるトレーニングが必要だという示唆を与えています。