Governance of AI-Generated Content: A Case Study on Social Media Platforms

该论文通过对 40 个主流社交媒体平台的调研,发现多数平台仅侧重于对违规 AI 生成内容的监管及披露,而较少涉及所有权与变现等深层问题,因此呼吁利益相关者制定更全面、前瞻的治理框架并加强用户教育。

Lan Gao, Abani Ahmed, Oscar Chen, Margaux Reyl, Zayna Cheema, Nick Feamster, Chenhao Tan, Kurt Thomas, Marshini Chetty

发布于 Tue, 10 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一份**“社交媒体平台的 AI 内容大体检报告”**。

想象一下,互联网是一个巨大的、热闹的**“数字广场”。以前,这里只有人类在聊天、画画、写故事。但现在,一种叫“生成式 AI"**的新工具(比如 ChatGPT 或画图机器人)突然火了,它能让任何人瞬间生成海量的文字、图片和视频。

这就带来了一个大问题:广场管理员(社交媒体平台)该怎么办? 是放任不管?还是把 AI 生成的东西都赶出去?

这篇论文的研究团队(来自芝加哥大学和谷歌)就像一群**“数字广场侦探”,他们潜入了40 个最火的社交媒体平台**(比如 Facebook、TikTok、YouTube、Reddit 等),仔细检查了它们的“家规”(政策文档),看看这些平台是如何管理 AI 内容的。

以下是他们发现的六大管理策略,用大白话和比喻来解释:

1. 老规矩管新事(“一视同仁”法)

  • 怎么做: 大多数平台(25 个)说:“不管是你人写的,还是 AI 写的,只要内容违法、骗人、骂人或侵犯隐私,就按老规矩处理,直接删掉或封号。”
  • 比喻: 就像公园管理员说:“不管你是用脚踢飞垃圾,还是用无人机扔垃圾,只要垃圾掉在地上,我就扫走你。”
  • 现状: 这是最普遍的做法,简单直接,但可能不够细致。

2. 贴个“我是 AI"的标签(“透明化”法)

  • 怎么做: 18 个平台要求用户:如果你发的东西是 AI 生成的,必须主动声明(比如加个标签 #AI 生成)。如果用户不说,平台也会用技术自动检测并贴上标签。
  • 比喻: 就像在超市里,如果是“人造肉”做的汉堡,必须贴上标签告诉顾客。这样大家就知道:“哦,这不是真牛肉,但我还是可以吃,只要我知道真相。”
  • 现状: 很多平台开始强制或鼓励这样做,为了让大家别被“以假乱真”的东西骗了。

3. 给 AI 内容设“禁区”(“特殊限制”法)

  • 怎么做: 5 个平台(主要是搞创作或知识的,比如 Stack Overflow 或 Medium)说:“有些领域,AI 生成的东西完全不能发,或者发了也不能赚钱。”
  • 比喻: 就像某些高级餐厅规定:“本店只接受厨师亲手做的菜,机器做的菜一律不准上桌,或者上了桌也不能收钱。”因为它们觉得 AI 做的东西缺乏“灵魂”或“原创性”。
  • 现状: 这种做法比较少见,通常是为了保护人类创作者的尊严和平台的独特性。

4. 管住“钱袋子”(“限制变现”法)

  • 怎么做: 6 个平台说:“你可以发 AI 内容,但别想靠它赚钱。”
  • 比喻: 就像游乐场允许你带自己做的玩具进去玩,但如果你卖这个玩具,就得交罚款。平台认为 AI 生成的内容质量参差不齐,不想让投机者靠它捞钱。
  • 现状: 主要是为了保护原创者的利益,防止“垃圾内容”泛滥。

5. 管好“自家生产的玩具”(“工具管控”法)

  • 怎么做: 14 个平台自己内置了 AI 工具(比如 TikTok 的 AI 特效)。它们说:“既然是我提供的工具生成的,那生成的东西必须更安全、更透明,而且发出来时会自动打上标签。”
  • 比喻: 就像游乐场自己卖的“充气城堡”,游乐场老板会亲自检查安全,并在上面印上“本城堡由 XX 游乐场提供”的 Logo,防止别人乱用。
  • 现状: 平台对自己提供的工具负全责,管得更严。

6. 给游客发“防骗指南”和“遥控器”(“赋能用户”法)

  • 怎么做: 17 个平台给用户提供工具:教你怎么分辨 AI 内容,或者让你能自己设置“我不想看 AI 内容”。
  • 比喻: 就像给游客发一本《防骗手册》,或者给你发一个遥控器,你可以选择“只看人类作品”或者“只看 AI 作品”。
  • 现状: 这是一种比较先进的做法,把选择权交给用户。

🔍 侦探们的发现与吐槽(主要问题)

虽然大家都在管,但侦探们发现了很多**“漏洞”**:

  1. 规则太乱: 有的平台管得严,有的管得松;有的说“必须贴标签”,有的说“随便”。就像 40 个公园有 40 种不同的“禁止乱扔垃圾”的牌子,游客很容易晕头转向。
  2. 检测不准: 平台想靠技术自动识别 AI 内容,但现在的技术就像**“近视眼”**,经常看走眼(把真人的画当成 AI 的,或者漏掉高明的 AI 作品)。
  3. 找不到“说明书”: 很多平台的规则散落在各种角落(帮助页面、博客、条款里),用户很难找到一份**“AI 管理总纲”**。
  4. 缺乏申诉渠道: 如果你的内容被误判为"AI 生成”并被打上标签,你很难找到地方去**“喊冤”**或申诉。

💡 给未来的建议(侦探的锦囊)

作者给平台、政府和用户提了几个建议:

  • 给平台: 别只靠老规矩了!要制定专门的 AI 管理手册,把规则写清楚、贴显眼。还要改进检测技术,别老误伤好人。最重要的是,给用户提供**“不看 AI 内容”的开关**。
  • 给政府: 法律得跟上!现在的法律对"AI 版权归谁”、“谁该为 AI 错误负责”还没说清楚。需要出台新法律,明确**“谁创作、谁负责、谁赚钱”**。
  • 给研究人员: 以后要多做长期跟踪,看看这些规则随着 AI 技术的发展,到底管不管用。

📝 一句话总结

这篇论文告诉我们:AI 内容已经像洪水一样涌入互联网,各大平台正在手忙脚乱地修堤坝。 目前大家主要靠“老办法”和“贴标签”在应对,但规则太乱、技术不准。未来需要更清晰、更统一、更聪明的管理方法,让 AI 既能帮人类创作,又不会把网络世界搞乱。