Each language version is independently generated for its own context, not a direct translation.
这篇论文就像是一次对AI 画师的“历史考试”。
想象一下,你请了一位非常聪明的 AI 画家,让他画出过去几百年里人类生活的场景。你告诉他:“请画一个 18 世纪的人在听音乐”或者“画一个 19 世纪的人在种地”。
这篇论文的作者(来自苏黎世大学的研究团队)发现,这位 AI 画家虽然画技高超,但在**“懂历史”**这件事上,却经常犯一些让人哭笑不得的错误。他们建立了一个名为 HistVis 的“历史考场”,让三个最先进的 AI 模型(SDXL, SD3, FLUX)画了 3 万张图,然后从三个角度给它们打分。
以下是这次“考试”的三个主要科目,以及 AI 的表现:
1. 第一科:风格刻板印象(“穿帮”的服装)
比喻: 就像如果你让 AI 画“古代”,它脑子里可能只有一本《历史教科书插图》。
- 问题: 当你让 AI 画 17 或 18 世纪的场景时,它几乎自动把画面画成黑白版画或素描,仿佛那个时代只有黑白照片一样。当你让它画 20 世纪 50 年代,它又倾向于画成黑白老照片。
- 现实: 虽然那个时代确实有黑白照片,但人类的生活是多彩的,也有油画、版画等多种艺术形式。AI 却像是一个只会用一种滤镜的摄影师,把“古代”和“黑白/版画”强行绑定了。
- 结果: 即使你告诉 AI“请画一张逼真的彩色照片”,它也很难改掉这个习惯。它似乎认为“古代”就应该是那种特定的视觉风格。
2. 第二科:时空错乱(“穿越”的道具)
比喻: 这就像在古装剧里,突然有人掏出了一部 iPhone,或者在 19 世纪的厨房里出现了吸尘器。
- 问题: AI 经常把现代的东西画进古代场景里。比如,在画"18 世纪听音乐”时,它可能会给人画上一副现代耳机;在画"19 世纪做饭”时,可能会出现现代厨具。
- 原因: AI 太关注“做什么”(比如听音乐),而忽略了“什么时候做”。它脑子里的“音乐”直接联想到了“耳机”,而不是“古乐器”。
- 结果: 这种“穿越”现象非常普遍。研究发现,其中一个模型(SD3)在画 19 世纪和 1930 年代的场景时,每 4 到 5 张图里就有一张出现了这种明显的时代错误。
3. 第三科:人口统计偏差(“谁在历史里”)
比喻: 想象你在看一本历史书,如果书里画的所有农民、工匠、甚至家庭主妇,清一色都是白人男性,那这本书对历史的描述就是歪曲的。
- 问题: AI 在画历史场景时,严重高估了白人男性的比例,而低估了女性和其他种族(如黑人、亚裔、中东人等)的存在。
- 例如,在画“烹饪”时,AI 倾向于画男性,但历史上(甚至直到近代)这主要是女性的工作。
- 在画“教育”时,AI 在 17-18 世纪画了很多女性,但历史上那个时期受教育的主要是男性。
- 结果: AI 画的不是“真实的历史”,而是它训练数据中**“现代偏见”和“刻板印象”的混合体**。它把现在的社会观念(或者数据中的偏差)强行投射到了过去。
总结:AI 眼中的“过去”是什么?
这篇论文告诉我们,目前的 AI 画历史,就像是一个**“只看过几本老书和现代电影的人”**在讲故事:
- 它觉得古代就是黑白的、像画一样的(风格偏见)。
- 它经常把现代科技硬塞进古代(时空错乱)。
- 它觉得过去的世界主要由白人男性主导,忽略了真实历史中丰富的人口多样性(人口偏差)。
为什么这很重要?
如果我们在学校、博物馆或者新闻里使用这些 AI 生成的图片,我们可能会无意识地被误导,以为历史真的长那样。这不仅扭曲了我们对过去的记忆,还可能让那些在历史上真实存在过、但被 AI“抹去”的人群继续被忽视。
未来的希望:
作者们并没有止步于批评,他们开发了一套**“历史阅卷标准”**(Benchmark)。这就像给未来的 AI 画家制定了一份“历史考纲”,告诉它们:画历史时,要注意风格多样性、不要穿帮、要尊重真实的人口分布。只有经过这样的训练,AI 才能成为真正尊重历史、还原真相的“数字史官”。
在收件箱中获取类似论文
根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。