Trust and Reliance on AI in Education: AI Literacy and Need for Cognition as Moderators

432 人の大学生を対象とした研究により、プログラミング課題における AI への信頼度が高いほど AI の助言を適切に使い分ける能力が低下する非線形な関係が示され、この傾向は AI リテラシーや認知欲求によって調節されることが明らかになりました。

Griffin Pitts, Neha Rani, Weedguet Mildort

公開日 2026-04-02
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

AI との「信頼関係」が学習をどう変えるか?

~「何でも信じる」のが実は一番危険な理由~

この研究は、大学生がプログラミングの課題を解くときに、AI(人工知能)の助言をどう扱ったかを調べたものです。

想像してみてください。あなたが料理をしているとき、**「万能な料理の助手」**が横に立っているとします。この助手は、たいていの場合は素晴らしいレシピを教えてくれますが、たまに「塩を 10 杯入れなさい」とか「火を消さずに 3 時間煮込みなさい」といった、明らかに間違ったアドバイスをしてくることもあります。

この研究では、432 人の学生に、この「万能助手(AI)」のアドバイスに従って料理(プログラミング問題)を作る実験をしてもらいました。そして、**「学生が助手をどれくらい信じていたか(信頼)」と、「間違ったアドバイスに騙されずに、正しいアドバイスだけを採用できたか(適切な依存)」**の関係を分析しました。

🍳 発見された意外な事実:「信頼」は「盲信」に繋がる

一般的に、「相手を信頼しているなら、その人の言うことをよく聞くはずだ」と考えがちです。しかし、この研究では**「AI を強く信頼している学生ほど、逆に間違ったアドバイスまで信じてしまい、正解を選べない」**という、少し皮肉な結果が出ました。

  • 信頼度が低い人:「この助手、本当かな?」と疑いながら、自分の頭で考え、助言を吟味していました。
  • 信頼度が高い人:「この助手はすごい!絶対正しい!」と信じてしまい、「塩を 10 杯入れなさい」という間違ったアドバイスも、疑うことなく実行してしまいました。

つまり、「信頼」が高すぎると、脳が「考えるスイッチ」をオフにしてしまい、AI の言うことをそのまま受け入れる「自動運転モード」になってしまったのです。

🧠 2 つの「防衛ライン」:AI リテラシーと「考える好き」

では、なぜ人によって結果が違ったのでしょうか?研究では、2 つの重要な要素が「信頼」と「正しい判断」の関係を調整していることがわかりました。

1. AI リテラシー(AI の知識)

  • 例え話:これは「料理の基礎知識」のようなものです。
  • 効果:AI の仕組みや限界を知っている人(知識がある人)は、信頼度が低い段階では、よく考えて助言を選別していました。しかし、「この助手はすごい!」と過度に信頼し始めると、その知識も効かなくなり、同じように間違ったアドバイスに引っかかりやすくなりました。

2. 認知的欲求(考えることを楽しむ性格)

  • 例え話:これは「パズルを解くのが好きな性格」です。
  • 効果:難しい問題を考えるのが好きな人(考えるのが好きな人)も、AI をあまり信じていないときは、慎重に判断していました。しかし、「AI は完璧だ」と思い込むと、その「考える好き」も麻痺してしまい、疑うことをやめてしまいました。

💡 私たちへの教訓:どう付き合えばいい?

この研究が教えてくれるのは、「AI を信じる」ことと「AI を使う」ことは別物だということです。

  • 悪い例:AI を「神様」のように信じて、その答えをそのままコピー&ペーストする。
    • → これは「過信(オーバーリーライアンス)」と呼ばれ、自分の頭を使わなくなる危険な状態です。
  • 良い例:AI を「優秀だが、たまに嘘をつく助手」として扱い、「本当にこれでいいかな?」と常に確認する姿勢を持つこと。

🛠️ 未来への提案:教育はどう変わるべきか?

この研究は、学校や教育現場に以下のようなアドバイスを送っています。

  1. 「検証」を習慣にする:AI の答えをそのまま使うのではなく、「なぜこの答えが正しい(または間違っている)のか」を説明させるような課題を作る。
  2. 「考える強制的なスイッチ」を入れる:AI の答えを見る前に、まず自分で答えを考えてから提示させるなど、「すぐに信じる」ことを防ぐ仕組みを作る。

まとめ

AI は素晴らしい道具ですが、「信頼しすぎる」ことは、逆に「自分で考えなくなる」ことへの近道になってしまいます。

大切なのは、AI を「正解を出す機械」ではなく、「一緒に考えるパートナー」として扱い、「本当にそうかな?」と常に疑う目(批判的思考)を持って付き合うことです。AI の力を最大限に活かすには、盲目的な信頼ではなく、**「賢い疑い」**が必要なのです。

自分の分野の論文に埋もれていませんか?

研究キーワードに一致する最新の論文のダイジェストを毎日受け取りましょう——技術要約付き、あなたの言語で。

Digest を試す →