Trust and Reliance on AI in Education: AI Literacy and Need for Cognition as Moderators

该研究通过 432 名本科生的编程任务实验发现,学生对 AI 的信任度与恰当依赖度呈非线性负相关(即高信任反而导致对错误建议的辨别力下降),且这一关系显著受到学生 AI 素养和认知需求的调节。

Griffin Pitts, Neha Rani, Weedguet Mildort

发布于 2026-04-02
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章探讨了一个非常现代且重要的话题:当学生在学习编程时,过度信任人工智能(AI)助手会发生什么?

为了让你轻松理解,我们可以把这项研究想象成一场"学生与 AI 助手的信任大冒险"。

🎭 核心故事:信任是一把双刃剑

想象一下,你正在学习编程(就像在学做一道复杂的菜),而 AI 是你的“超级助手”。它会在旁边给你提建议,告诉你代码该怎么写。

  • 理想情况:助手很聪明,它说“加个盐”,你就加盐;它说“别加糖”,你就不加糖。你懂得辨别它的话对不对。
  • 现实情况:这项研究发现,如果你太信任这个助手,你反而更容易犯错

研究团队找了 432 名大学生,给他们出了一套编程题。在这个过程中,AI 助手故意混入了一些错误的建议(就像助手有时候会胡说八道,比如告诉你“把盐当糖放”)。

🔍 他们发现了什么?

1. 信任越高,越容易“盲从”

研究发现了一个有趣的现象:学生对 AI 的信任度越高,他们越容易不加思考地接受 AI 的所有建议,哪怕是错的。

  • 比喻:这就像你太相信一个“导游”了。如果导游说“前面是悬崖,快跳下去”,因为太信任他,你可能真的就跳下去了,完全没自己看一眼。
  • 结果:那些对 AI 最信任的学生,反而最分不清哪些建议是对的,哪些是错的。他们把 AI 的话当成了“圣旨”。

2. 并不是“信任”本身有问题,而是“思考”变少了

为什么会出现这种情况?因为当人们太信任某个东西时,大脑就会“偷懒”(心理学上叫“认知懒惰”)。

  • 比喻:就像你太相信导航软件了,哪怕导航把你带进了死胡同,你也懒得抬头看看路牌,只会怪自己没听导航的。学生也是这样,一旦信任 AI,他们就不愿意动脑筋去验证 AI 说的话了。

3. 谁更能“保持清醒”?(两个关键因素)

研究还发现,并不是所有人都一样容易“上当”。有两个特质像“防骗盾牌”一样,能帮助学生保持清醒:

  • AI 素养(AI Literacy)

    • 比喻:这就像你懂“魔术原理”。如果你知道魔术师是怎么变戏法的,你就不会觉得他变出来的兔子是神迹,而是知道那是道具。
    • 作用:懂 AI 原理的学生,即使信任 AI,也会多留个心眼,知道 AI 也会犯错。
  • 认知需求(Need for Cognition)

    • 比喻:这就像有人天生喜欢解谜题,喜欢动脑筋;而有人喜欢看现成的答案
    • 作用:那些天生喜欢深度思考、享受动脑筋过程的学生,即使信任 AI,也会先自己想一想,而不是直接照搬。

但是! 研究也发现了一个残酷的现实:当信任度变得非常高时,即使是那些“懂 AI"或“爱思考”的学生,也会开始变得盲目。 一旦信任的“滤镜”太厚,再聪明的人也容易失去判断力。

💡 这对我们意味着什么?(给老师和学生的建议)

这项研究告诉我们,在教育中引入 AI 时,不能只教学生“怎么用”,还得教学生“怎么防”。

  1. 不要做“甩手掌柜”:不能让学生觉得 AI 说什么就是什么。
  2. 设计“强制思考”环节
    • 比喻:就像在过安检时,必须把包打开检查一样。教育工具可以设计成:在看 AI 的答案之前,先让学生自己写个答案;或者让学生必须指出 AI 哪里可能错了,才能提交作业。
  3. 培养“怀疑精神”:要告诉学生,AI 是个强大的工具,但它不是全知全能的上帝。它也会“一本正经地胡说八道”。

📝 一句话总结

信任 AI 是好事,但“盲目信任”是坏事。 这项研究提醒我们,在 AI 时代,保持怀疑和独立思考的能力,比单纯地依赖 AI 更重要。我们需要学会做 AI 的“老板”,而不是它的“跟班”。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →