Detecting AI-Generated Essays in Writing Assessment: Responsible Use and Generalizability Across LLMs

本章概述了 AI 生成文章检测器的现状与负责任使用指南,并基于 GRE 写作提示的实证分析,评估了检测器在不同大语言模型间的泛化能力,为实际应用中检测器的开发与重训练提供了指导。

Jiangang Hao

发布于 2026-03-05
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章就像是一份**“给写作考试考官的防作弊指南”**,专门讨论当学生们用 AI(人工智能)写文章时,我们该怎么发现,以及怎么负责任地使用这些“火眼金睛”。

作者来自 ETS(美国教育考试服务中心),他们主要研究 GRE 等标准化考试。下面我用几个生活中的比喻来帮你轻松理解这篇论文的核心内容:

1. 背景:当“代笔”变得太完美

以前,学生作弊主要是**“抄袭”**(比如从网上复制粘贴),这就像是在图书馆里偷书,老师只要拿着“查重仪”(像 Turnitin 这种工具)一照,发现文字和书里的一模一样,就能抓个正着。

但现在,AI 来了。它不是偷书,而是**“凭空造书”**。AI 写的文章通顺、逻辑好,甚至没有抄袭痕迹。这就好比以前是有人偷了别人的画作,现在是一个机器人画了一幅全新的、完美的画。传统的“查重仪”对这种“原创的假画”就失效了。

2. 现在的“侦探”们是怎么工作的?

论文里介绍了四种抓 AI 的主要方法,我们可以把它们想象成不同的侦探手段:

  • 方法一:找“指纹”和“怪癖”(监督学习分类器)

    • 比喻:就像老练的侦探看笔迹。人类写字会有独特的“笔触”(比如用词习惯、句子长短的随机性),而 AI 写字虽然完美,但往往太“平滑”、太“标准”,缺乏人类那种自然的“抖动”或“意外”。
    • 做法:让电脑学习成千上万篇人类作文和 AI 作文,找出它们之间的细微差别(比如某些词出现的概率),然后训练一个模型来区分。
    • 优缺点:有的模型像“透明玻璃”,你能看懂它为什么判断是 AI(因为它发现了某个怪癖);有的模型像“黑盒子”,虽然准,但你不知道它怎么想的。
  • 方法二:给 AI 文章盖“隐形印章”(水印技术)

    • 比喻:就像银行在钞票里加防伪线。如果 AI 生成文章时,开发者偷偷在字里行间加了一些人类看不见的“统计规律”(水印),检测器就能像验钞机一样扫出来。
    • 缺点:这招有个大漏洞。如果学生把 AI 生成的文章改一改、润色一下,或者换个 AI 重写,这个“隐形印章”就碎了,检测器就看不出来了。而且,这需要 AI 公司配合,目前很难普及。
  • 方法三:看“写字过程”(过程数据)

    • 比喻:这是最硬核的。想象一下,人类写文章时,会思考、停顿、删改、打错字再回删,就像在纸上涂涂改改。而如果是把 AI 生成的文章直接复制粘贴进去,或者让人工手抄,这个过程就太“顺滑”了,没有那些犹豫和修改的痕迹。
    • 做法:在考试系统里记录你敲键盘的速度、停顿时间、修改历史。如果一篇文章写得完美无缺,但键盘记录显示你是“秒速粘贴”或“毫无停顿”,那大概率是 AI 写的。
  • 方法四:拿“题库”去比对(相似度匹配)

    • 比喻:因为考试题目是固定的(比如 GRE 题目),我们可以让 AI 把这道题写 200 遍,存进一个“假作文库”。然后拿学生的作文去跟这个库比对。如果学生的作文和库里的某一篇高度重合,那就可疑了。
    • 局限:这招只适合题目固定的考试。如果是让学生“自由发挥”写日记,题目变来变去,这招就不灵了。

3. 核心发现:AI 也在“进化”,侦探也得“升级”

论文做了一个很酷的实验:用旧款 AI(比如 GPT-3.5)生成的文章训练侦探,然后拿新款 AI(比如 GPT-4, GPT-5)生成的文章去考这个侦探。

  • 结果
    • 同门师兄弟好认:如果侦探是用 GPT-4 训练的,它也能认出 GPT-4o 写的文章,因为它们“性格”很像。
    • 新来的很难认:但是,像 GPT-5 这种最新的模型,风格变了,旧侦探就认不出来了,甚至会把人类写的文章误判成 AI(误报)。
    • 万能解法:最好的办法是**“博采众长”**。把各种 AI 生成的文章都拿来训练一个“超级侦探”,这样不管 AI 怎么变,它都能应付。

4. 重要提醒:别把“侦探”当法官(负责任地使用)

这是论文最强调的一点:AI 检测器不是完美的,不能直接用来给学生定罪。

  • 没有 100% 准确:就像安检门,有时候会把钥匙当成炸弹(误报),有时候漏掉真炸弹(漏报)。
  • 短文章测不准:如果只写一句话,AI 和人类根本分不清,就像让你判断一个单词是谁写的,是不可能的。
  • 混合写作最难测:如果学生用 AI 打个底,自己又改了很多,这种“人机混合”的文章,现在的技术很难分清。
  • 公平性问题:有些检测器可能会误伤英语非母语的学生(比如中国学生),因为他们的写作风格可能和 AI 的某些特征撞车。
  • 建议
    • 不要只靠检测器:检测器只能提供线索,不能作为最终证据。
    • 结合“过程证据”:看看键盘记录、监控视频,或者让学生在课堂上现场写一段,对比一下风格。
    • 不要一刀切:不能因为怕作弊就禁止使用 AI,就像不能因为有车祸就禁止开车。我们要制定规则,教学生怎么负责任地使用 AI,而不是简单封杀。

总结

这篇论文告诉我们:AI 写文章的能力越来越强,传统的“抓作弊”手段正在失效。我们需要多种手段结合(看内容、看过程、看题库),并且要谨慎使用检测工具。

未来的写作考试,可能不再是看谁写得“最像人”,而是看谁最会驾驭 AI,以及谁在人机协作中依然保持了独特的思考。检测技术需要不断升级,但更重要的是教育者要改变观念,从“防贼”转向“引导”。