When AI Fails, What Works? A Data-Driven Taxonomy of Real-World AI Risk Mitigation Strategies

本文基于对近万篇真实 AI 事故报道的数据分析,通过提取并分类 23,994 项缓解措施,扩展了 MIT 的 AI 风险缓解分类体系,新增了四类应对策略,从而构建了从故障诊断到干预措施的数据驱动型指南,以应对大模型在高危场景下的系统性风险。

Evgenija Popchanovska, Ana Gjorgjevikj, Maryan Rizinski, Lubomir Chitkushev, Irena Vodenska, Dimitar Trajanov

发布于 2026-03-05
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一份**"AI 事故急救手册”的升级版**。

想象一下,人工智能(特别是像 ChatGPT 这样的大型语言模型)就像是一个刚学会开车、精力充沛但偶尔会犯迷糊的超级司机。以前,我们只担心这个司机会不会把车开歪(模型本身的错误)。但现在,这个司机已经开进了繁忙的市中心,甚至开始负责送快递、做手术、写法律文件。一旦他犯错,后果就不再只是“蹭了个漆”,而是可能引发连环车祸、造成巨额赔偿,甚至让整条街道(整个社会系统)陷入瘫痪。

这篇论文的作者们做了一件非常务实的事:他们收集了近 1 万篇关于 AI 出事的新闻报道,像侦探一样分析这些事故,看看当 AI 闯祸后,人们到底是怎么“收拾烂摊子”的。

以下是这篇论文的核心内容,用大白话和比喻来解释:

1. 为什么我们需要新地图?(旧地图不够用了)

以前,专家们画了一张“风险地图”(MIT 的旧分类法),告诉我们要怎么预防 AI 出错。但这张地图主要是理论派,就像只画了“理想路况”。
然而,现实中的 AI 事故千奇百怪。有时候不是车坏了,而是司机被黑客劫持了,或者是公司为了省钱没给司机装刹车,甚至是司机说了假话导致法官判错了。
作者们发现,旧地图漏掉了很多现实中正在发生的“新路况”。他们决定基于真实的事故现场,给这张地图加上新的区域。

2. 他们发现了什么新“急救包”?(四大新分类)

通过分析成千上万条新闻,作者们发现,当 AI 出事时,人们采取的补救措施比想象中更多样。他们给这些措施加了四个全新的“急救箱”

  • 🚫 1. 紧急刹车与封锁(Corrective & Restrictive Actions)

    • 比喻:就像发现某个路段太危险,直接封路,或者把车上那个坏掉的功能按钮拆掉
    • 例子:YouTube 发现儿童版 App 里有恐怖视频,直接下架了相关频道,或者关闭了某些功能,甚至暂停了广告。这是最直接的“止损”。
  • ⚖️ 2. 警察与法官的介入(Legal, Regulatory & Enforcement Actions)

    • 比喻:当司机违规太严重,警察(监管机构)开罚单,或者法官(法院)判赔偿。
    • 例子:律师因为用 AI 编造了虚假的法律案例,被法院罚款,甚至被要求去上“AI 扫盲课”。这是用法律手段强制 AI 公司或用户负责。
  • 💰 3. 算账与市场惩罚(Financial, Economic & Market Controls)

    • 比喻:让肇事者赔钱,或者让保险公司拒保,甚至让它在市场上买不到票
    • 例子:Air Canada 的客服机器人乱说话,导致公司不仅要赔钱给乘客,还因为信誉扫地,股价下跌,甚至被合作伙伴拉黑。这是用真金白银和市场地位来惩罚。
  • 🙅 4. 耍赖与否认(Avoidance & Denial)

    • 比喻:有些公司出了事,第一反应不是修车,而是捂嘴,说“这不是我的错”或者“我根本没做”。
    • 例子:有些公司面对投诉,直接拒绝删除内容,或者声称“这是用户自己的问题”,试图通过法律条文来推卸责任。虽然这听起来不像是在解决问题,但这确实是现实中常见的一种“应对策略”。

3. 这张新地图有什么用?

作者们把旧地图和这些新发现的“急救包”拼在一起,画出了一张更完整、更接地气的“事故应对指南”

  • 以前:我们只知道“要检查代码”(技术层面)。
  • 现在:我们知道了,如果 AI 闯祸,我们可能需要封路(停用功能)、叫警察(法律诉讼)、赔钱(经济制裁),甚至要警惕那些想赖账的公司。

4. 给普通人的启示

这就好比我们以前只担心“汽车会不会爆胎”,现在我们明白了,开车上路还需要考虑:

  • 如果车失控了,能不能立刻切断油门?(技术封锁)
  • 如果撞人了,保险公司赔不赔?(经济控制)
  • 交警会不会来开罚单?(法律监管)
  • 如果司机抵赖怎么办?(应对否认策略)

总结

这篇论文的核心思想是:AI 不仅仅是代码问题,它是一个复杂的社会系统。
当 AI 失败时,我们不能只盯着屏幕上的 Bug 看。我们需要一套组合拳:既要有技术上的“刹车”,也要有法律上的“罚单”,还要有经济上的“赔偿”,甚至要准备好应对那些“耍赖”的行为。

作者们希望,通过这份基于真实案例总结出来的“新地图”,未来的 AI 开发者、监管者和公司能更聪明地应对风险,不再只是被动地“救火”,而是能提前准备好各种“灭火器”,让 AI 这辆车在高速公路上跑得更稳、更安全。