Pre-trained LLMs Meet Sequential Recommenders: Efficient User-Centric Knowledge Distillation

该论文提出了一种新颖的知识蒸馏方法,利用预训练大语言模型生成文本用户画像来增强序列推荐系统对用户语义的理解,同时无需在推理阶段调用大模型或修改架构,从而在保持传统模型推理效率的同时实现了高效的用户中心式知识迁移。

原作者: Nikita Severin, Danil Kartushov, Vladislav Urzhumov, Vladislav Kulikov, Oksana Konovalova, Alexey Grishanov, Anton Klenitskiy, Artem Fatkulin, Alexey Vasilev, Andrey Savchenko, Ilya Makarov

发布于 2026-04-24✓ Author reviewed
📖 1 分钟阅读☕ 轻松阅读

这是对下方论文的AI生成解释。它不是由作者撰写的。如需技术准确性,请参阅原始论文。 阅读完整免责声明

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个关于如何让“推荐系统”变得更聪明,同时又不让它变慢的故事。

想象一下,你正在经营一家超级大的线上商店(比如淘宝或亚马逊),你需要给每位顾客推荐他们可能喜欢的商品。

1. 现在的困境:老练的“导购员”vs. 博学的“教授”

  • 传统的推荐系统(像 SASRec、BERT4Rec):
    这就好比一位经验丰富的老导购员。他非常熟悉你的购买历史:如果你上周买了尿布,这周他可能会推荐湿巾。他反应极快,几秒钟就能给出建议。

    • 缺点: 他有点“死板”。他只记得你买了什么,但不懂你为什么买。他不知道你喜欢“有机成分”,也不懂你其实是个“极简主义者”。他只能看到行为,看不到背后的“人”。
  • 大语言模型(LLM):
    这就好比一位博学的教授。如果你给他看你的购物清单,他能写出几千字的分析报告:“这位顾客非常注重护肤,喜欢天然成分,对指甲油有独特品味,是个追求高品质生活的人。”

    • 缺点: 这位教授太慢了!每次你刷新页面,都要等教授写完几千字报告再给你推荐,用户早就跑光了。而且让他实时工作,成本太高(就像雇不起那么多教授)。

2. 论文的核心创意:让“老导购员”去“旁听”教授的课程

这篇论文提出了一种聪明的方法,叫做知识蒸馏(Knowledge Distillation)

核心比喻:让老导购员去“偷师”教授,而不是让教授亲自上场。

  1. 备课阶段(离线训练):

    • 作者先让那位“博学的教授”(预训练的大模型)仔细阅读所有顾客的历史记录,并给每个人写一份详细的“用户画像”(Textual User Profile)
    • 比如,教授会写:“用户 A 是个注重健康的妈妈,喜欢有机食品。”
    • 然后,把这些文字画像转化成数学向量(就像把文字变成数字密码)。这一步是在后台慢慢做的,不耽误用户买东西。
  2. 教学阶段(蒸馏过程):

    • 现在,作者让那位“老导购员”(传统的推荐模型)开始学习。
    • 第一阶段: 老导购员一边看顾客的购买记录,一边看教授写的“用户画像”答案。老导购员会努力调整自己的大脑(模型参数),让自己对用户的理解,尽可能接近教授的理解。
    • 第二阶段: 当老导购员已经学会了教授的那些“潜台词”后,就把教授请走。老导购员只专注于做推荐任务。
  3. 上岗阶段(实时服务):

    • 当顾客再次访问网站时,只有老导购员在工作
    • 他不需要等教授写报告,因为他脑子里已经装进了教授的智慧。他依然像以前一样快(毫秒级响应),但他给出的推荐却像教授一样懂人心。

3. 这个方法好在哪里?

  • 既快又准: 它保留了传统推荐系统“快如闪电”的速度,却拥有了大模型“懂人心”的智慧。
  • 不用改架构: 不需要把现有的推荐系统拆了重装,也不需要在大模型上花大价钱去微调(Fine-tuning)。
  • 省钱: 不需要在用户每次点击时都调用昂贵的大模型。

4. 实验结果:真的有用吗?

作者在四个不同的数据集(美妆、电影、电商等)上做了测试:

  • 效果提升: 相比原来的老导购员,加上“教授的智慧”后,推荐准确率提升了 2% 到 23% 不等(特别是在数据比较少的情况下,提升巨大)。
  • 速度对比: 如果直接用大模型做推荐,速度慢得像蜗牛(慢了 50 到 180 倍);而用这个方法,速度和原来一样快。
  • 稳定性: 即使教授不在了,老导购员依然记得教授教给他的那些关于用户喜好的“秘密”。

总结

这篇论文就像是在说:我们不需要让每个人都去读博士(用大模型实时推理),我们可以让经验丰富的老员工(传统模型)去读博士的笔记(知识蒸馏),然后让他们用老员工的速度,做出博士水平的决策。

这就是让 AI 既聪明又高效,真正走进我们日常生活的好方法。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →