Certifying the Right to Be Forgotten: Primal-Dual Optimization for Sample and Label Unlearning in Vertical Federated Learning

本文提出了 FedORA 框架,利用原始 - 对偶优化方法解决垂直联邦学习中的样本与标签遗忘难题,通过引入不确定性损失函数、自适应步长及非对称批处理设计,在显著降低计算与通信开销的同时,实现了与重新训练相当的遗忘效果与模型效用。

Yu Jiang, Xindi Tong, Ziyao Liu, Xiaoxi Zhang, Kwok-Yan Lam, Chee Wei Tan

发布于 Tue, 10 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 FedORA 的新方法,旨在解决人工智能(AI)在“垂直联邦学习”环境下的一个棘手问题:如何让用户行使“被遗忘权”,即让 AI 彻底忘记某些特定数据或类别,而无需重新训练整个模型。

为了让你更容易理解,我们可以把整个场景想象成一家跨国联合烹饪餐厅

1. 背景:什么是“垂直联邦学习”?

想象一下,有一家餐厅(AI 模型),但它不是由一个人掌勺的,而是由几个不同的部门(参与方)合作完成的:

  • 部门 A(被动方):只负责切菜(拥有特征 1,比如食材的新鲜度)。
  • 部门 B(被动方):只负责调味(拥有特征 2,比如香料种类)。
  • 部门 C(主动方/主厨):负责最后摆盘和决定这道菜叫什么名字(拥有标签/分类结果)。

他们不能把各自的食材和秘方直接交换(因为涉及隐私),只能互相传递处理过的“半成品”(特征嵌入)来共同训练出最好的菜谱。这就是垂直联邦学习

2. 问题:当有人要求“被遗忘”时

现在,根据法律(如 GDPR),一位顾客(数据所有者)说:“我后悔了,请把我的数据从你们的菜谱里彻底删掉,我不希望 AI 再根据我的喜好做菜。”

这就叫机器遗忘(Machine Unlearning)

在传统的“水平联邦学习”(大家都有完整的菜谱,只是食材不同)中,删数据相对容易。但在“垂直联邦学习”中,因为菜谱是拼凑出来的,删掉一个人的数据,就像是要从一道已经做好的复杂菜肴中,精准地剔除掉某个人贡献的那一点点盐味,同时不能让整道菜变难吃,也不能让其他顾客觉得味道变了。

现有的方法主要有两个缺点:

  • 重新训练(Retrain):把那个人删了,然后从头开始重新学一遍菜谱。这太慢了,就像为了删掉一个错字,把整本书撕了重写。
  • 梯度上升(Gradient Ascent):强行让 AI 对那个人的数据“感到困惑”或“故意猜错”。但这就像是为了让 AI 忘记一个人,故意把它教傻,结果 AI 可能连其他正常顾客也记不住了(过度遗忘),或者根本忘不掉(遗忘不彻底)。

3. 解决方案:FedORA(联邦优化移除算法)

作者提出了 FedORA,它像是一个聪明的“记忆橡皮擦”,专门用来在垂直联邦学习中擦除特定数据的影响。

核心创意一:不是“教错”,而是“教糊涂”

以前的方法试图让 AI 对要删除的数据故意猜错(比如把猫的图片硬说是狗)。但这容易把 AI 搞乱。
FedORA 的做法是:让 AI 对要删除的数据感到“完全不确定”

  • 比喻:想象你在教一个学生认字。以前的方法是让他把“苹果”硬说是“香蕉”,结果他可能把“梨”也认成香蕉了。FedORA 的方法是告诉他:“关于这个‘苹果’,你什么都别猜,你就觉得它既像苹果又像梨,完全拿不准。”
  • 技术点:他们设计了一种新的“遗忘损失函数”,鼓励模型输出均匀的概率分布(即最大熵),让模型对特定数据“失忆”到无法区分任何类别,而不是强行分类错误。

核心创意二:左右手互搏的“原对偶优化”

FedORA 使用了一种数学上的原对偶(Primal-Dual)框架

  • 比喻:想象有两个小人在控制模型。
    • 左手(原变量):负责“保持现状”,努力记住剩下的顾客,保证菜好吃(保留模型效用)。
    • 右手(对偶变量):负责“施加压力”,专门盯着要删除的数据,不断推搡模型,直到模型彻底忘记它们。
    • 这两个小人通过一种精妙的平衡机制(拉格朗日乘子法)互相配合。如果模型还没忘掉,右手就用力推;如果忘掉了,右手就松手。这样既保证了遗忘,又不会把模型推散架。

核心创意三:聪明的“不对称批处理”

在擦除数据时,FedORA 很懂得“偷懒”(其实是优化效率)。

  • 比喻
    • 对于要删除的数据:必须全部检查一遍,确保一个不留(全量处理)。
    • 对于剩下的数据:既然模型已经学会怎么做了,不需要每次都把剩下的所有顾客都过一遍。只需要随机抽查一小部分(比如 5%)来微调一下,保持手感即可。
  • 效果:这大大减少了计算量和通信成本,就像你不需要为了擦掉黑板上的一个错字,把整块黑板重新擦一遍再写一遍。

核心创意四:自适应的“步长调节”

在擦除过程中,FedORA 会像开车一样,根据路况自动调整速度。

  • 比喻:如果模型参数变化很剧烈(路况不好),它就放慢脚步(减小步长)以防翻车;如果变化很平稳,它就加速前进。这保证了整个擦除过程既快又稳。

4. 结果:它做得怎么样?

作者在各种数据集(从简单的表格数据到复杂的图片识别)上进行了测试:

  • 遗忘效果:FedORA 能像“重新训练”一样彻底地忘记目标数据,甚至更好。
  • 保留效果:在忘记目标数据的同时,它保留了对其他数据的识别能力,几乎和“重新训练”一样好。
  • 安全性:它能有效防御“成员推断攻击”(黑客试图判断某人的数据是否在训练集中)和“后门攻击”(黑客植入的恶意触发器)。
  • 效率:它比重新训练快得多,比现有的其他遗忘方法更稳定。

总结

FedORA 就像是一个高明的记忆管理大师。在多方合作(垂直联邦学习)的复杂环境下,它不仅能精准地帮用户“删除记忆”(行使被遗忘权),还能保证 AI 的“大脑”不会因为这次删除而变笨或崩溃。它通过让模型对特定数据“感到困惑”而非“故意犯错”,配合聪明的数学平衡术和高效的抽查机制,实现了既忘得干净,又记得牢固,还省时间的完美平衡。