Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >XRec: 大模型如何重塑推荐系统的可解释性

XRec: 大模型如何重塑推荐系统的可解释性

作者头像
张小磊
发布于 2024-06-18 08:15:48
发布于 2024-06-18 08:15:48
6820
举报

TLDR: 这篇文章给大家分享来自香港大学数据智能实验室最近推出的智能推荐大模型XRec,旨在利用大语言模型为推荐系统提供基于自然语言的可解释性。

论文:https://arxiv.org/pdf/2406.02377 代码:https://github.com/HKUDS/XRec 主页:https://sites.google.com/view/chaoh

导读

传统推荐系统虽然能给出准确的推荐结果, 但缺乏对推荐逻辑的解释, 难以让用户真正理解和信任。让推荐系统能以自然语言向用户阐述其推荐依据, 不仅能增强用户的理解, 还能促进他们与系统的互动, 从而获得更满意的体验。

与此同时,可解释性推荐系统可以增强推荐系统的智能化。自然语言模型具有深入理解用户需求和偏好的能力, 能够形成更细致入微的用户画像。基于这种丰富的用户洞见, 推荐系统不仅能做出更精准的推荐, 还可以为用户提供有价值的决策支持, 进一步提高系统的智能化水平。总的来说, 可解释性推荐系统有助于实现人机协作, 推动推荐技术的发展。

因此,基于提升用户体验和增强推荐系统智能化的动机, 受启发于大语言模型强大的自然语言能力, 港大数据智能实验室致力于开发能够让推荐系统具备可解释性语言能力的大模型。

这一方向的研究旨在突破传统推荐系统的局限性, 让推荐系统不仅能给出精准的结果, 还能用通俗易懂的语言向用户解释其推荐依据。通过整合大语言模型的语义理解能力和协同过滤的用户偏好建模, 港大数据智能实验室正在探索构建一种"可解释推荐"(XRec)大模型框架, 使推荐系统具备洞察用户需求、生成准确解释的智能化水平。

这种融合自然语言处理和推荐系统的创新尝试, 不仅能大幅提升用户体验, 增强他们对推荐结果的理解和信任, 也将为推荐技术的发展注入新的活力, 最终实现人机协作, 为用户提供更优质的智能服务。

模型方法

XRec 利用大型语言模型 (LLMs) 为推荐系统的输出提供丰富的自然语言解释。通过整合协作信号并采用轻量级推荐信号适配器,XRec 深入理解用户偏好和用户-物品交互中的复杂模式。该框架在具有挑战性的零样本场景中, 展现了其在未见用户和物品方面的出色泛化能力。

协同关系Tokenizer

为了有效地捕捉大量用户和商品之间的协作关系, 以及反映他们的交互模式, 自然语言的表达能力是不足的, 但表征(representation)提供了一种强大的替代方案。在我们的XRec系统中, 我们利用图神经网络 (GNNs) 作为协同信号的tokenizer,将复杂的用户-商品交互关系信息编码到潜在的嵌入空间中, 从而实现对复杂用户偏好的有效建模。具体而言, 我们的协作图 tokenizer 基于图神经网络的消息传递机制(message passing), 在用户-商品交互图中进行信息的传播和聚合, 促进用户和商品节点表征的学习。这样不仅能够更好地捕捉节点之间的关联, 还能够反映出复杂的交互模式。

大语言模型的输入适配器

协同信息适配器 (Collaborative Information Adapter)鉴于用户-商品交互行为所反映的协同信息, 其语义表示空间(embedding space)可能与用户和商品的文本语义存在差异, 我们的XRec模型配备了一个轻量级但有效的适配器模块。此适配器的作用是对这些不同的语义模态进行对齐, 使我们的模型能够有效地融合利用协同信号和文本语义, 从而提升整体的建模能力。

协同过滤(CF)与大语言模型(LLM)的融合在对嵌入进行新的适配之后, 我们现已做好将协同信息融入大语言模型的准备。我们引入了特殊的标记(tokens)来保留输入提示中的空间, 然后将提示转换为token嵌入后, 将已适配的嵌入注入到这些保留的位置中。

然而, 由于每个节点嵌入在输入提示中仅由一个单一的token表示, 随着输入长度的增加, 分配给每个嵌入token的注意力权重(attention weight)不可避免地会减弱, 这可能导致协同信息的损失。为了解决这种影响力的稀释问题, 我们将适配后的嵌入扩展到LLM的初始输入提示之外。具体来说, 我们将它们注入到LLM每一层的保留位置中。为了促进这一过程, 我们修改了LLM内部每一层的query、key和value投影函数如下:

我们用表示查询(query)、键(key)和值(value)的投影矩阵, 用表示适配后的嵌入。我们的方法确保大型语言模型(LLMs)不仅在输入阶段, 而且在整个网络结构中都能不断访问和整合协同信息。通过将基于图的知识注入到LLMs的所有层中, 我们不仅保持了协同上下文的强大表征, 还使得直接回到专家混合(MoE)模块的梯度流更为有效。这种创新的语言建模和图表示学习的融合, 使我们的模型能够利用LLMs提供的深层语境洞见, 同时从图神经网络(GNN)识别的结构模式中获益。

损失函数

为了提升大型语言模型(LLMs)生成语境和句法连贯解释的能力, 我们的目标是最小化预测下一个token的概率与实际下一个token之间的损失。我们采用负对数似然(Negative Log Likelihood, NLL)作为训练损失, 计算公式如下:

其中, N 为解释的数量, 为每个解释中的字符计数, 和 ŷ 分别表示实际和预测的token。为了降低训练复杂度, 我们冻结了LLMs内部的所有参数, 不包括与图神经网络(GNN)训练过程的任何交互。唯一可训练的参数是在基于专家混合(Mixture of Experts, MoE)的适配器模型中的参数。

基准解释的生成

之前的研究直接使用用户评论作为推荐系统的基准解释。然而, 这些评论往往带有主观色彩, 可能只是隐含地传达了用户的意图或情绪。为了解决这一限制, 提高基准解释的质量, 我们创新性地使用大型语言模型(Large Language Model, LLM)从原始评论中提取出明确的用户意图。

实验验证

我们在三个公开数据集(Amazon-books、Yelp和Google-reviews)上使用GPTScore、BERTScore等指标评估了XRec模型。实验结果表明, XRec在可解释性和稳定性方面均显著优于所有基准模型(Att2Seq、NRT、PETER和PEPLER)。

模型鲁棒性的探索

为了评估模型的泛化能力, 我们在不同数据稀疏性的数据集上进行了实验。根据用户在训练数据中出现的频率, 我们将测试数据划分为五个子集(tst1到tst5)。这使我们能够系统地检查模型在不同用户熟悉度范围内的有效性, 从罕见到频繁的用户。此外, 我们引入了一个零样本测试数据集, 其中仅包含训练期间未遇到的用户, 以测试模型解决冷启动问题的能力。

在零样本场景中, 由于缺乏任何先前的用户数据, 我们的模型不仅优于基线, 而且与其他子集(从tst1到tst5)的表现相当。这种能力对于新用户的推荐非常有价值, 也突显了我们方法在实际应用中的实用性, 其中用户行为和项目目录经常变化。

这些发现强调了我们的模型在传统推荐系统面临的挑战中的有效性, 例如涉及新用户或不频繁用户的情况。模型在零样本学习中的成功证明了其强大的泛化能力, 并突显了其解决冷启动问题的潜力, 即新用户或项目缺乏历史交互数据。通过在不同情境中保持高水平的可解释性和稳定性, 该模型证明了其适用于动态环境中部署, 其中用户行为和项目目录经常变化。

模型消融实验

我们进行了消融实验, 以探索模型中两个关键组件的影响:用户/项目属性和协同信息的注入。我们比较了以下四种模型变体:

  • 完整模型(Ours): 包含所有特性
  • 无属性(Ours w/o profile): 省略了用户和项目属性
  • 无协同信号注入(Ours w/o injection): 保留了对齐嵌入在提示中, 但未将其注入到LLM层
  • 无属性&协同信号注入(Ours w/o profile & injection): 缺少属性和基于协同信号嵌入的注入

为了严格评估可解释性和稳定性, 我们使用GPTScore和BERTScore在Amazon-books和Google-reviews数据集上评估了这些变体, 包括它们的标准差。这揭示了每个元素在推动模型性能和能力方面的关键作用。结果显示, 我们的完整模型(Ours)在可解释性和稳定性方面优于其他变体, 突出了每个元素的重要贡献。

结语

本文提出了一个新颖的XRec框架, 它无缝集成了基于图的协同过滤范式和大语言模型(LLMs)的能力, 以生成对推荐输出的全面且富有洞察力的解释。通过利用用户-商品交互图中编码的固有协同关系, XRec能够有效捕获构成用户偏好和项目关联的高阶依赖性。XRec引入了一个专门的协同信息适配器, 作为建立协同信号(collaborative signal)与LLM内丰富的文本语义空间(embedding space)之间强连接的关键桥梁。

广泛的实验结果强调了XRec框架的显著优势。它不仅增强了推荐过程的可解释性, 还确保了在具有挑战性的零样本场景中的鲁棒性。XRec框架在这些场景中展示了强大的跨未见用户和项目的泛化能力。


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
传统推荐系统虽然能给出准确的推荐结果,但缺乏对推荐过程的透明解释,难以让系统更好地理解其兴趣偏好是如何被捕捉和建模的。
新智元
2024/06/27
1670
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
论文合集 | 图大模型推荐研究
大型语言模型(LLMs)已经彻底改变了自然语言处理任务,而其与图神经网络(GNN上)之间又会擦出怎样的火花呢?本文汇总了20篇与图大模型相关的论文(主要以推荐系统领域为主),展示最新的工作研究进展。
Houye
2024/05/18
9870
论文合集 | 图大模型推荐研究
谷歌 | 物品-语言大模型推荐系统
TLDR: 当前将大语言模型用于推荐系统存在三方面问题:1)大语言模型不在推荐系统数据上训练,并且推荐数据通常不公开可用。2)用户交互数据通常与自然语言文本模式不同,无法确定大语言模型能否从交互数据中学习到更多的重要知识。3)难以同时适配不同的用例训练。为解决以上限制,本文提出了一个物品语言模型,其由一个物品编码器和一个冻结的大语言模型组成,前者对用户交互信息进行编码以生成与文本对齐后的物品表示,后者用保留的预训练知识理解这些物品表示。本文进行了大量的实验,证明了语言对齐和用户交互知识在物品编码器中的重要性。
张小磊
2024/07/05
3510
谷歌 | 物品-语言大模型推荐系统
综述 | 《面向推荐的大型语言模型》
大型语言模型(LLMs)已在自然语言处理(NLP)领域崭露头角,并在推荐系统(RS)领域近期受到了极大关注。这些模型通过自监督学习在大量数据上进行训练,已在学习通用表示上取得了显著成功,并有可能通过一些有效的迁移技术(如微调和提示调整等)来增强推荐系统的各个方面。利用语言模型的力量来提高推荐质量的关键在于利用它们对文本特征的高质量表示以及对外部知识的广泛覆盖,以建立项目和用户之间的关联。为了提供对现有基于LLM的推荐系统的全面理解,本综述提出了一种分类法,将这些模型分为两大范式,分别是用于推荐的判别型LLM(DLLM4Rec)和用于推荐的生成型LLM(GLLM4Rec),其中后者是首次被系统地整理出来。此外,我们在每种范式中都系统地回顾并分析了现有的基于LLM的推荐系统,提供了它们的方法、技术和性能的洞察。此外,我们也识别出了关键的挑战和一些有价值的发现,以为研究者和实践者提供灵感。
Houye
2023/09/04
7900
综述 | 《面向推荐的大型语言模型》
WSDM2024 | LLMRec: 基于大语言模型图数据增强的推荐系统
TLDR: 本文提出一种新的大语言模型增强的推荐框架LLMRec。具体地,LLMRec提出了三种基于大语言模型的图数据增强策略来强化使用辅助信息的推荐系统。
张小磊
2023/11/03
9380
WSDM2024 | LLMRec: 基于大语言模型图数据增强的推荐系统
近期LLM4Rec前沿论文汇总
简单汇总了一下LLM4Rec的最新进展,希望对大家有帮助,部分文章已经解读过,后续也会对其中的一些有趣的文章进行阅读。
秋枫学习笔记
2023/12/13
6550
近期LLM4Rec前沿论文汇总
AI论文速读 | STG-LLM 大语言模型如何理解时空数据?
论文标题:How Can Large Language Models Understand Spatial-Temporal Data?
时空探索之旅
2024/11/19
2320
AI论文速读 | STG-LLM 大语言模型如何理解时空数据?
奥创纪元:当推荐系统遇到大模型LLM
大模型LLM在越来越多的领域开始崭露头角,比如我们在今年上半年曾在某电商平台落地过较为直观简单的LLMx搜索项目(我们称之为LLM应用的第一阶段),同时拿到线上收益,LLM的潜力可见一斑。
NewBeeNLP
2023/12/04
1.9K0
奥创纪元:当推荐系统遇到大模型LLM
从ID-based到LLM-based: 可迁移推荐系统研究进展总结
TLDR: 本文综述了近期关于可迁移推荐系统的发展现状,并分别介绍了基于ID、基于模态和基于大语言模型的可迁移推荐系统的代表性工作,最后对该方向进行了系统性的总结和展望。
张小磊
2023/11/07
1.2K0
从ID-based到LLM-based: 可迁移推荐系统研究进展总结
基于生成模型的推荐系统综述 (Gen-RecSys)
TLDR: 本篇综述旨在调研生成式推荐模型(Gen-RecSys)的主要进展,包括:交互驱动生成模型的基本概述;大型语言模型(LLM)在生成式推荐、检索和会话推荐中的应用;推荐系统中处理和生成图像视频内容的多模态模型的整合。本文以整体视角讨论了Gen-RecSys的影响和危害,并指出了其面临的挑战。
张小磊
2024/06/18
2.1K0
基于生成模型的推荐系统综述 (Gen-RecSys)
如何让你的推荐系统具有可解释性?
Jointly Learning Explainable Rules for Recommendation with Knowledge Graph(WWW19)
炼丹笔记
2021/05/14
2.2K0
如何让你的推荐系统具有可解释性?
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
本文由香港科技大学(广州)、上海人工智能实验室、中国人民大学及南洋理工大学联合完成。主要作者包括香港科技大学(广州)研究助理党运楷、黄楷宸、霍家灏(共同一作)、博士生严一博、访学博士生黄思睿、上海AI Lab青年研究员刘东瑞等,通讯作者胡旭明为香港科技大学/香港科技大学(广州)助理教授,研究方向为可信大模型、多模态大模型等。
机器之心
2025/02/14
2320
决策过程是魔法还是科学?首个多模态大模型的可解释性综述全面深度剖析
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024/01/17
3.5K0
LLM4Rec:当推荐系统遇到大语言模型
中科院深圳先进院:全新知识增强图神经网络实现可解释性推荐|TKDE 2022
---- 新智元报道   作者:吴悦 连肇瑞 审核:吕子钰 编辑:LRS 【新智元导读】近日,来自中科院深圳先进院的团队提出了知识增强图神经网络(KEGNN)实现可解释性推荐。定量和定性的结果表明,KEGNN优于现有的方法,在提供精准推荐结果的同时生成人类可读的推荐解释。 近年来,以大数据和深度学习为基础的人工智能展示了卓越的计算能力和学习能力。但深度学习模型通常包含深度嵌套的非线性结构,很难确定具体哪些因素使它做出这样的决定,缺乏决策的可解释性和透明度。 与此同时,由于可解释的建议不仅提高了推荐系统
新智元
2022/06/06
7400
中科院深圳先进院:全新知识增强图神经网络实现可解释性推荐|TKDE 2022
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
TLDR: 最近,ChatGPT横空出世,横扫NLP很多任务,甚至已经出圈。但其能力边界仍然未知,特别是应用在推荐系统领域。这篇工作从point-wise,pair-wise,list-wise三种排序方式的角度,在四个不同领域的数据集上评测了ChatGPT的推荐能力,从多角度揭开了ChatGPT推荐能力的面纱。
张小磊
2023/08/22
2530
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
生成式推荐系统初探
随着 ChatGPT 的横空出世与 GPT-4 的重磅登场,生成式 AI(Generative AI)引起了前所未有的关注,基于 GPT(Generative Pre-Trained Transformer)的模型在各类 NLP 和 CV 任务上取得了惊人的效果。生成式 AI 模型可以根据训练过的数据创建新的内容、模式或解决方案,一些典型应用包括 ChatGPT、Stable Diffusion 和 DALL·E 等(封面图片来自 DALL·E)。然而,在推荐系统(RS)领域研究中,受限于推荐系统 User/Item ID 的范式,以及大多情况下为非通用、非常识知识,因而直接将基于 GPT 的模型作为推荐模型具有一定的局限性。例如,在电影、图书和音乐等领域推荐场景直接将 ChatGPT 作为推荐模型可以取得较好的效果,然而,在其他一些领域推荐场景直接利用 ChatGPT 效果有限。随着各类生成式模型层出不穷,部分研究人员开始考虑如何在 RS 中有效引入生成式 AI。本文主要关注 RS 和生成式 AI 可能存在的结合点,调研了 RecSys'23 等会议录用的若干相关工作,以及最新已公开的若干方法。
腾讯技术工程官方号
2023/08/16
1.3K0
生成式推荐系统初探
港大开源推荐系统新范式RLMRec!大模型加持,准确提炼用户/商品文本画像
推荐系统在深度学习和图神经网络的影响下已经取得了重大进步,尤其擅长于捕捉复杂的用户-物品关系。
新智元
2023/11/19
8750
港大开源推荐系统新范式RLMRec!大模型加持,准确提炼用户/商品文本画像
告诉我们事实:用知识图谱增强大语言模型以实现事实感知的语言建模
论文标题:Give Us the Facts: Enhancing Large Language Models with Knowledge Graphs for Fact-aware Language Modeling
叶庭云
2024/05/24
5520
大模型+RAG,全面介绍!
大型语言模型(LLMs)在处理特定领域或高度专业化的查询时存在局限性,如生成不正确信息或“幻觉”。缓解这些限制的一种有前途的方法是检索增强生成(RAG),RAG就像是一个外挂,将外部数据检索集成到生成过程中,增强模型提供准确和相关响应的能力。
算法进阶
2024/05/31
9210
大模型+RAG,全面介绍!
大模型可解释性你能理得清吗?综述已来,一文解你疑惑
大规模语言模型在自然语言处理方面展现出令人惊讶的推理能力,但其内在机理尚不清晰。随着大规模语言模型的广泛应用,阐明模型的运行机制对应用安全性、性能局限性和可控的社会影响至关重要。
机器之心
2023/09/27
1.2K0
大模型可解释性你能理得清吗?综述已来,一文解你疑惑
推荐阅读
相关推荐
打开黑盒神经网络!港大推出全新「会说话」的推荐系统大模型XRec,从黑盒预测到可解释
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档