What are AI researchers worried about?

这项针对 4000 多名 AI 研究人员的大规模调查显示,尽管公众讨论常聚焦于极端威胁,但研究人员实际上更关注现实的社会技术风险,且仅有 3% 的人将生存风险视为首要担忧,这表明 AI 领域的真实态度比公众认知更为理性与正常。

Cian O'Donovan, Sarp Gurakan, Ananya Karanam, Xiaomeng Wu, Jack Stilgoe

发布于 Mon, 09 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一次对"AI 界内部人士”的大规模“人口普查”

想象一下,现在的公众舆论场就像是一个嘈杂的广场。在这个广场上,只有几个拿着大喇叭的“超级明星”(科技巨头 CEO 和少数著名科学家)在喊话。他们要么在吹嘘 AI 能让人类永生,要么在警告 AI 会像《终结者》里的天网一样毁灭人类。

但是,广场角落里还有4000 多名真正在实验室里敲代码、写论文、造模型的 AI 研究人员。他们平时很少说话,但这次,研究者们(来自伦敦大学学院等机构)决定给他们发问卷,问问他们到底在想什么

结果发现,这些“内部人士”的想法,和广场上那些大喇叭喊出来的内容,大相径庭

以下是这篇论文的核心发现,用几个简单的比喻来解释:

1. 广场上的“末日恐慌”vs. 实验室里的“日常烦恼”

  • 公众听到的: 媒体和某些大人物总说,AI 最大的威胁是“存在性风险”(Existential Risk),也就是 AI 觉醒后把人类灭绝了。这就像大家都在担心外星人明天会不会入侵地球
  • 研究人员担心的: 在 4000 多名研究人员中,只有**3%**的人最担心“外星人入侵”。
  • 他们真正担心的是什么? 他们更担心现实生活中的“小麻烦”,就像担心家里的水管漏水、邻居吵架或者有人偷快递。
    • 头号担忧: 坏人用 AI 干坏事(恶意使用)、假新闻满天飞(误导信息)、以及 AI 抢走大家的工作。
    • 结论: 研究人员觉得 AI 目前更像是一个强大的工具,而不是一个有自我意识的怪物。他们担心的是工具被用错了地方,而不是工具自己“活”了过来。

2. “乐观的科学家”vs. “怀疑的普通人”

  • 关于好处: 研究人员对 AI 非常乐观。90% 以上的人认为 AI 带来的好处大于坏处,就像他们相信电力的发明最终会造福人类。
  • 关于坏处: 有趣的是,当谈到具体的坏处时,研究人员和普通大众的看法惊人地一致
    • 大家都担心:假新闻、隐私泄露、网络犯罪。
    • 唯一的分歧: 大众觉得 AI 可能没什么好处,甚至觉得它是个麻烦;但研究人员坚信它能改善教育和工作效率。
    • 比喻: 就像一群厨师(研究人员)和一群食客(大众)。厨师们觉得新发明的料理机(AI)能做出绝世美味(乐观),但也担心有人用料理机切到手(风险);而食客们觉得这机器太吵了,可能还会把厨房弄乱(悲观)。但在“机器可能会切到手”这件事上,厨师和食客是同仇敌忾的。

3. “黑盒子”与“原材料”的争议

  • 关于数据: 很多 AI 模型是用网上随便抓来的图片写的。研究人员对此很不满。
    • 比喻: 这就像一家餐厅,厨师们(研究人员)说:“我们不能随便去邻居家的花园摘花来做菜,得先问邻居同不同意,或者至少给点钱。”
    • 超过 65% 的研究人员认为,公司训练 AI 时,必须获得数据创作者的许可,不能“白嫖”。
  • 关于责任: 以前,科技公司常说:“我们只负责造车,撞不撞人是司机的事。”
    • 新态度: 这次调查发现,三分之二的研究人员认为,造出 AI 的人必须为 AI 造成的现实后果负责。他们不想再当“甩手掌柜”了。

4. 谁在掌控方向盘?

  • 现状: 目前,AI 的研究方向主要由大科技公司(如 Google, Meta 等)说了算,就像一辆车被几个富有的乘客强行按着方向盘往“赚钱”的方向开。
  • 研究人员的愿望: 大多数研究人员希望 AI 是开源的(像公共图书馆的书,大家都能看),并且希望政府把资金更多地投向医疗和教育,而不是军事
  • 隐忧: 研究人员担心,随着 AI 越来越被大公司垄断,这种“公开讨论”的空间会变小,大家的意见会被淹没。

总结:这篇论文想告诉我们什么?

这篇论文就像是一面镜子,照出了公众讨论中的失真

  1. 打破神话: AI 并不是只有“毁灭人类”或“拯救世界”两个极端。在研究人员眼中,它更像是一个正在快速成长的、有点调皮的孩子,我们需要管教它(监管),而不是把它关进笼子(过度恐慌)或者把它供成神(过度吹捧)。
  2. 回归常识: 研究人员担心的都是此时此刻的问题(假新闻、失业、隐私),而不是遥远的未来(人类灭绝)。
  3. 呼吁对话: 现在的政策制定者太听信那几个“大喇叭”的声音了。这篇论文呼吁,应该多听听这 4000 多名普通研究人员的声音,因为他们更懂技术,也更关心技术如何真正影响普通人的生活。

一句话总结:
别被那些关于"AI 毁灭人类”的科幻故事吓坏了,真正的 AI 专家们更担心的是假新闻、隐私泄露和谁该为 AI 的错误买单。我们需要的是脚踏实地的监管,而不是天马行空的恐慌。