Modeling User Preferences as Distributions for Optimal Transport-Based Cross-Domain Recommendation under Non-Overlapping Settings

本文提出了 DUP-OT 框架,通过将用户偏好建模为高斯混合分布并利用最优传输技术进行跨域对齐,有效解决了非重叠设置下的跨域推荐难题,显著缓解了冷启动问题并提升了预测精度。

Ziyin Xiao, Toyotaro Suzumura

发布于 2026-03-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章介绍了一种名为 DUP-OT 的新方法,旨在解决推荐系统(比如淘宝、Netflix 或亚马逊的“猜你喜欢”)中一个非常头疼的问题:如何在一个完全陌生的领域,给新用户做推荐?

为了让你轻松理解,我们可以把整个推荐系统想象成**“开一家跨城市的连锁餐厅”**。

1. 核心难题:两个完全陌生的世界

  • 传统做法的困境
    以前的推荐系统(单域推荐)就像是在北京开了一家餐厅,只懂北京人的口味。现在你想在巴黎开分店(目标域),但巴黎的顾客你完全不认识,菜单上的菜他们也完全没吃过。这就是**“冷启动”“数据稀疏”**问题。
  • 旧方法的局限
    以前的跨域推荐(CDR)通常假设北京和巴黎有一群共同的朋友(重叠用户),或者有一道共同的招牌菜(重叠商品)。通过认识这些“共同点”,把北京的口味经验传给巴黎。
    • 现实情况:但在现实中,两个平台(比如一个卖书,一个卖电子产品)的用户和商品往往完全没有重叠。你不能用“共同朋友”来搭桥,因为根本不存在。
  • 旧方法的另一个弱点
    以前的方法把用户的喜好看作一个固定的数字列表(比如:喜欢 30% 的科幻,70% 的喜剧)。但这太死板了,人的喜好是复杂的、多变的,就像一个人既喜欢安静的阅读,又喜欢热闹的派对,这种**“多面性”**很难用一个简单的数字列表概括。

2. DUP-OT 的解决方案:把喜好变成“概率云”

作者提出了 DUP-OT,它的核心思想可以概括为三个步骤,我们继续用餐厅的比喻:

第一步:共享的“翻译官” (Shared Preprocessing)

  • 做法:不管是在北京还是巴黎,顾客留下的评论(Review)都是文字。系统先用一个强大的“翻译官”(预训练的句子编码器),把所有评论变成一种通用的“语言向量”。
  • 比喻:就像给北京和巴黎的菜单都翻译成了同一种“世界语”,这样系统就能理解,北京的“麻辣”和巴黎的"Épicé"在语义上是相似的,尽管它们属于不同的城市。

第二步:把喜好画成“云朵” (Gaussian Mixture Models, GMM)

  • 做法:这是本文最大的创新。它不再把用户喜好看作一个固定的点(比如“只喜欢科幻”),而是看作一朵**“概率云”**(高斯混合模型)。
  • 比喻
    • 旧方法:说这个顾客是“科幻迷”,就像在地图上插了一个钉子,位置固定。
    • DUP-OT:说这个顾客的喜好是一朵。这朵云可能大部分覆盖在“科幻”区域,但边缘也飘到了“悬疑”和“历史”区域。
    • 为什么好? 这朵云能捕捉到用户多面、细腻的喜好。而且,系统假设每个城市(域)有一组标准的“云朵形状”(高斯分量),用户只是决定自己这朵云由哪些形状组成,以及每个形状占多大比例(权重)。

第三步:用“最优运输”把云朵搬过去 (Optimal Transport, OT)

  • 做法:既然北京和巴黎没有共同用户,怎么把北京的口味经验传给巴黎呢?作者用了**“最优运输” (Optimal Transport)** 理论。
  • 比喻
    • 想象北京有一堆不同形状的“口味云朵”(比如:辣味云、甜味云、酸味云),巴黎也有自己的一套“口味云朵”。
    • 虽然人不一样,但云朵的形状是可以对应的。最优运输算法就像一位超级搬运工,它计算如何以最小的“搬运成本”,把北京的“辣味云”形状,精准地映射到巴黎的“辣味云”形状上。
    • 一旦形状对齐了,系统就可以把北京用户对这些云朵的偏好权重(比如:他 80% 喜欢辣味云),直接“搬运”并融合到巴黎的预测中。

3. 实验结果:真的有效吗?

作者在亚马逊(Amazon)的真实数据上做了测试,把“音乐/电影/游戏”作为北京(源域),把“电子产品”作为巴黎(目标域)。

  • 结果 1(跨域有用吗?):是的。用了北京的数据(DUP-OT w/ source)比只用巴黎数据(DUP-OT w/o source)预测更准,特别是对于那些几乎没有历史记录的冷启动用户,能大幅减少“猜错”的幅度。
  • 结果 2(云朵比钉子好吗?):是的。即使不用北京的数据,仅仅把用户的喜好从“钉子”改成“云朵”(DUP-OT w/o source),在巴黎本地的预测效果也比传统的推荐算法(如 LightGCN)好得多。
  • 结果 3(比对手强吗?):是的。和另一个跨域推荐高手 TDAR 相比,DUP-OT 在避免极端错误(RMSE 更低)方面表现更好。这意味着它虽然偶尔可能不够“精准”,但绝不会把用户喜欢的东西完全推错,这对冷启动用户来说至关重要。

总结

这篇论文就像是在说:

“当我们面对一个完全陌生的新用户(冷启动),且没有任何共同好友可以依靠时,不要试图用一个死板的标签(钉子)去定义他。不如把他的喜好看作一朵多变的云。然后,利用最优运输这个聪明的搬运工,把我们在其他领域学到的‘云朵形状’经验,巧妙地搬运过来,帮我们在陌生城市也能做出更靠谱的推荐。”

这种方法不仅解决了**“没有重叠用户”的难题,还通过“概率云”**模型,更细腻地捕捉了人类复杂多变的兴趣。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →