Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >实验探索: ChatGPT是好的推荐系统吗?

实验探索: ChatGPT是好的推荐系统吗?

作者头像
张小磊
发布于 2023-08-22 10:40:15
发布于 2023-08-22 10:40:15
2990
举报

TLDR: 之前我们简单测试了下ChatGPT作为推荐器在序列推荐和可解释推荐上的能力,即如何利用ChatGPT实现推荐模型的能力?今天再跟大家分享一篇通过实验来探究ChatGPT通用推荐能力的文章,其在评分预测、序列推荐、直接推荐、解释生成和评论总结等五个推荐场景中测试了ChatGPT的推荐能力。

本文介绍了一种基于ChatGPT的通用推荐模型。与传统方法不同,ChatGPT不需要针对每个任务进行专门调整,而是通过大规模语料库学习到丰富的语言和世界知识,并将其应用于各种推荐场景中。具体的,使用ChatGPT完成推荐任务的工作流程如下图所示,包括三个步骤。首先,根据推荐任务的特定特征构建不同的prompts,具体的prompts包括三部分,即任务描述、行为注入和格式指示。其次,这些prompts被用作ChatGPT的输入,根据prompts中指定的要求生成推荐结果。最后,通过改进模块检查和优化ChatGPT的输出,并将优化后的结果作为最终推荐结果返回给用户。

在本文中,使用了预训练好的ChatGPT模型,并通过设计一组提示语来将推荐任务转化为自然语言任务,并测试了其在zero-shot和few-shot上的推荐能力。具体来说,设计了五个不同的推荐场景,包括评分预测、顺序推荐、直接推荐、解释生成和评论总结。

  • 在评分预测任务中,要求ChatGPT根据用户的历史评分和商品信息预测用户对新商品的评分。下图展示了相应的prompt。黑色字体表示任务描述,红色字体表示格式要求,蓝色字体表示用户历史信息或few-shot信息,灰色字体表示输出结果,下同。
  • 在序列推荐任务中,要求ChatGPT根据用户的历史行为和商品信息生成一个商品序列,以便向用户推荐相关商品。下图展示了相应的prompt。
  • 在直接推荐任务中,要求ChatGPT根据用户的历史行为和商品信息直接向用户推荐相关商品。下图展示了相应的prompt。
  • 在解释生成任务中,要求ChatGPT根据给定的评分或行为生成一段自然语言解释。下图展示了相应的prompt。
  • 在评论总结任务中,要求ChatGPT根据给定的评论生成一段自然语言总结。下图展示了相应的prompt。

为了评估ChatGPT在各种推荐场景下的性能,使用了Amazon电子商务数据集。其中,zero-shot表示直接对ChatGPT进行测试,而few-shot则表示对ChatGPT注入用户历史交互来微调ChatGPT然后进行测试。实验结果表明,在所有五个场景下,ChatGPT都表现出差不多的推荐能力。特别地,在序列推荐任务中,ChatGPT相比于传统方法有着更好的性能。

总之,本文通过实验的方式探究了ChatGPT的通用推荐能力,它可以处理各种推荐任务,并且具有较好的泛化能力,但有待进一步提升。通过大规模语料库学习到的丰富知识可以有效地应用于推荐任务中。未来,将继续探索如何进一步提高ChatGPT在推荐任务中的性能,并将其应用于更多的领域中,以满足不同领域的推荐需求。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-04-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习与推荐算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
TLDR: 最近,ChatGPT横空出世,横扫NLP很多任务,甚至已经出圈。但其能力边界仍然未知,特别是应用在推荐系统领域。这篇工作从point-wise,pair-wise,list-wise三种排序方式的角度,在四个不同领域的数据集上评测了ChatGPT的推荐能力,从多角度揭开了ChatGPT推荐能力的面纱。
张小磊
2023/08/22
2520
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
LLM4Rec:当推荐系统遇到大语言模型
大模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了大模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。
NewBeeNLP
2024/01/17
3.4K0
LLM4Rec:当推荐系统遇到大语言模型
当推荐系统遇到大模型
本文整理了2023年以来,ChatGPT等语言大模型在推荐系统中的应用。基于大模型的推荐系统,与传统的推荐系统差异非常大,如果大模型推荐系统能取得成功,势必会对原来的推荐系统造成不小的冲击。截止到目前为止,已经有多篇文章初步探讨和尝试了ChatGPT等大模型在推荐系统中的应用。总体来看,ChatGPT在推荐系统中的应用有不小的潜力,主要体现在以下几个方面:
圆圆的算法笔记
2023/08/17
3K0
当推荐系统遇到大模型
奥创纪元:当推荐系统遇到大模型LLM
大模型LLM在越来越多的领域开始崭露头角,比如我们在今年上半年曾在某电商平台落地过较为直观简单的LLMx搜索项目(我们称之为LLM应用的第一阶段),同时拿到线上收益,LLM的潜力可见一斑。
NewBeeNLP
2023/12/04
1.9K0
奥创纪元:当推荐系统遇到大模型LLM
生成式推荐系统初探
随着 ChatGPT 的横空出世与 GPT-4 的重磅登场,生成式 AI(Generative AI)引起了前所未有的关注,基于 GPT(Generative Pre-Trained Transformer)的模型在各类 NLP 和 CV 任务上取得了惊人的效果。生成式 AI 模型可以根据训练过的数据创建新的内容、模式或解决方案,一些典型应用包括 ChatGPT、Stable Diffusion 和 DALL·E 等(封面图片来自 DALL·E)。然而,在推荐系统(RS)领域研究中,受限于推荐系统 User/Item ID 的范式,以及大多情况下为非通用、非常识知识,因而直接将基于 GPT 的模型作为推荐模型具有一定的局限性。例如,在电影、图书和音乐等领域推荐场景直接将 ChatGPT 作为推荐模型可以取得较好的效果,然而,在其他一些领域推荐场景直接利用 ChatGPT 效果有限。随着各类生成式模型层出不穷,部分研究人员开始考虑如何在 RS 中有效引入生成式 AI。本文主要关注 RS 和生成式 AI 可能存在的结合点,调研了 RecSys'23 等会议录用的若干相关工作,以及最新已公开的若干方法。
腾讯技术工程官方号
2023/08/16
1.3K0
生成式推荐系统初探
来啦来啦!关于CoT提示策略综述
思维链(CoT)是一个循序渐进、连贯的推理链,通常被用作大型语言模型(LLM)的提示策略并体现出了巨大的优势。近年来,基于CoT提示的展示出的效果吸引了众多的研究。
zenRRan
2023/10/14
1.3K0
来啦来啦!关于CoT提示策略综述
综述 | 《面向推荐的大型语言模型》
大型语言模型(LLMs)已在自然语言处理(NLP)领域崭露头角,并在推荐系统(RS)领域近期受到了极大关注。这些模型通过自监督学习在大量数据上进行训练,已在学习通用表示上取得了显著成功,并有可能通过一些有效的迁移技术(如微调和提示调整等)来增强推荐系统的各个方面。利用语言模型的力量来提高推荐质量的关键在于利用它们对文本特征的高质量表示以及对外部知识的广泛覆盖,以建立项目和用户之间的关联。为了提供对现有基于LLM的推荐系统的全面理解,本综述提出了一种分类法,将这些模型分为两大范式,分别是用于推荐的判别型LLM(DLLM4Rec)和用于推荐的生成型LLM(GLLM4Rec),其中后者是首次被系统地整理出来。此外,我们在每种范式中都系统地回顾并分析了现有的基于LLM的推荐系统,提供了它们的方法、技术和性能的洞察。此外,我们也识别出了关键的挑战和一些有价值的发现,以为研究者和实践者提供灵感。
Houye
2023/09/04
7800
综述 | 《面向推荐的大型语言模型》
ControlRec:对齐LLM和推荐系统之间的语义差异
标题:ControlRec: Bridging the Semantic Gap between Language Model and Personalized Recommendation 地址:https://arxiv.org/pdf/2311.16441.pdf 学校,公司:中国科学院大学,美团
秋枫学习笔记
2023/12/04
8290
ControlRec:对齐LLM和推荐系统之间的语义差异
【AI大模型】ChatGPT模型原理介绍(下)
2020年5月, OpenAI发布了GPT-3, 同时发表了论文“Language Models are Few-Shot Learner”《小样本学习者的语言模型》.
小言从不摸鱼
2024/09/18
2350
【AI大模型】ChatGPT模型原理介绍(下)
ChatGPT深度解析:GPT家族进化史
导语 |2022年11月30日,OpenAI 发布了其最新的聊天机器人模型 ChatGPT。腾讯云开发者先后从其玩法体验、技术原理、上手方法和竞品洞察几个方面进行解读,并邀请腾讯前沿科技研究中心主任王强畅聊 ChatGPT 最受关注的问题(如果你对相关内容感兴趣,可点击一键跳转阅读)。然而,ChatGPT 成为现象级火爆技术之作的背后,是常年累月的技术积累和灵敏迭代。此次我们邀请腾讯 NLP 工程师张先礼深度解析 ChatGPT 进化历程——GPT 各代有何区别、如何演进?其现有能力有什么不足?未来将会有什么发展方向?欢迎各位开发者阅读、分享与交流 ChatGPT 神话的缔造之路。
腾讯云开发者
2023/02/28
2.2K0
ChatGPT深度解析:GPT家族进化史
最新综述 | 大模型时代下的推荐系统总结
TLDR: 本文综述了最近使用大语言模型技术来增强推荐系统的相关工作,主要是将当前工作分为预训练(Pre-training)、微调(Fine-tuning)和提示(Promoting)的角度来进行介绍。
张小磊
2023/08/22
1.3K0
最新综述 | 大模型时代下的推荐系统总结
从ID-based到LLM-based: 可迁移推荐系统研究进展总结
TLDR: 本文综述了近期关于可迁移推荐系统的发展现状,并分别介绍了基于ID、基于模态和基于大语言模型的可迁移推荐系统的代表性工作,最后对该方向进行了系统性的总结和展望。
张小磊
2023/11/07
1.2K0
从ID-based到LLM-based: 可迁移推荐系统研究进展总结
推荐系统范式之争,LLM vs. ID?
TLDR: 本文与已有的LLM4Rec一个主要区别在于,已有的ChatGPT4Rec文献大多是调用OpenAI API来做prompt工程,本文则是将1750亿的GPT-3作为item encoder替换ID。为了对该范式(论文称之为TCF范式,在过去几年涌现了大量相关论文,不过多是使用BERT,word2vec等中小型item 编码器)性能进行极限研究和评价,论文甚至对600亿LLM做微调或者重新训练,目的是为了回答基于文本的推荐范式的若干核心问题,相关实验可以看出完成该论文的算力成本之高。
张小磊
2023/08/22
6950
推荐系统范式之争,LLM vs. ID?
大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解
在自然语言处理问题中,可从互联网上下载大量无标注数据,而针对具体问题的有标注数据却非常少,GPT 是一种半监督学习方法,它致力于用大量无标注数据让模型学习 “常识”,以缓解标注信息不足的问题。其具体方法是在针对有标签数据训练 Fine-tune 之前,用无标签数据预训练模型 Pretrain,并保证两种训练具有同样的网络结构。 GPT 底层也基于 Transformer 模型,与针对翻译任务的 Transformer 模型不同的是:它只使用了多个 Deocder 层。
汀丶人工智能
2023/07/18
3.7K0
大语言模型的预训练[2]:GPT、GPT2、GPT3、GPT3.5、GPT4相关理论知识和模型实现、模型应用以及各个版本之间的区别详解
RecSys'22 推荐系统论文梳理
RecSys 2022已公布录用论文,接收39篇/投稿231篇,录用率为17%,再创历史新低。完整录用论文列表见
枫桦
2022/08/02
1.2K0
SIGIR2022 | UCCR: 以用户为中心的对话推荐系统
本文介绍被CCF A类会议SIGIR2022接收的以用户为中心的对话推荐系统的论文。该论文从推荐系统的角度重新审视了现有的对话推荐工作,发现现有方法关注于当前会话的自然语言理解,而忽略了推荐任务中最核心的目标:用户。现有方法本质上当前会话的建模,而忽略了用户建模。而本文发现用户历史会话和相似用户信息也可以很好地辅助用户兴趣建模,特别是在用户当前会话信息较少(冷启动)的场景下效果更佳。
张小磊
2022/05/26
7690
SIGIR2022 | UCCR: 以用户为中心的对话推荐系统
When RS Meets LLM:推荐系统如何从大语言模型中取长补短?面向应用视角的全面综述
Github: https://github.com/CHIANGEL/Awesome-LLM-for-RecSys
Houye
2023/09/04
1.2K0
When RS Meets LLM:推荐系统如何从大语言模型中取长补短?面向应用视角的全面综述
介绍提示学习、连续提示、离散提示
2021 年,提示学习(Prompt Learning)的研究浪潮兴起。而早在 2020 年,OpenAI 在 NeurIPS 2020 发表的一篇论文 Language Models are Few-Shot Learners 中就已经探讨了如何利用提示学习来提升大语言模型(Large Language Models,LLMs)的推理能力。论文中介绍了 Zero-shot、One-shot、Few-shot 三种不同的提示方法,如下图示意。
叶庭云
2024/05/25
7380
介绍提示学习、连续提示、离散提示
基于生成模型的推荐系统综述 (Gen-RecSys)
TLDR: 本篇综述旨在调研生成式推荐模型(Gen-RecSys)的主要进展,包括:交互驱动生成模型的基本概述;大型语言模型(LLM)在生成式推荐、检索和会话推荐中的应用;推荐系统中处理和生成图像视频内容的多模态模型的整合。本文以整体视角讨论了Gen-RecSys的影响和危害,并指出了其面临的挑战。
张小磊
2024/06/18
2K0
基于生成模型的推荐系统综述 (Gen-RecSys)
ChatGPT真的是「通才」吗?杨笛一等人给它来了个摸底考试
机器之心报道 编辑:张倩、陈萍 ChatGPT 真的是「通才」吗?单拎出哪项能力都能完胜其他模型吗?哪些任务是 ChatGPT 擅长的,哪些不是?为了系统地探索这些问题,南洋理工大学博士生 Chengwei Qin、斯坦福大学计算机科学助理教授杨笛一等人进行了大量实验。 论文链接:https://arxiv.org/pdf/2302.06476.pdf 大型语言模型(LLM)已经被证明能够解决各种自然语言处理(NLP)任务,而且对于给定的下游任务,它们不依赖任何训练数据,借助适当的 prompt 就能
机器之心
2023/02/23
3820
ChatGPT真的是「通才」吗?杨笛一等人给它来了个摸底考试
推荐阅读
相关推荐
实验探索: 以信息检索视角,揭开ChatGPT推荐能力的神秘面纱
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档