关注我们,一起学习
标题: EAGER: Two-Stream Generative Recommender with Behavior-Semantic Collaboration 地址:https://arxiv.org/pdf/2406.14017 学校:浙大 会议:KDD 2024
生成式检索用于序列推荐是将候选item检索视为一个自回归序列生成问题。但现有方法只关注item信息的行为或语义方面,忽略了它们的互补性。本文提出一种新的生成式推荐框架EAGER,集成行为和语义信息。
alt text
采用transformer构建双流结构来处理行为和语义信息,由share encoder,dual codes和dual decoders组成。
为了使每个解码器具有足够的判别能力,本节设计了一个带有摘要token的全局对比任务来提取全局知识。
对于每个解码器的输入,考虑自回归生成的从左到右的顺序,并在序列的末尾插入可学习的标记,输入变为。这种设计鼓励代码中的前一个token学习更全面的知识,使最后的token能够进行总结。
为了使摘要token捕获全局信息,采用对比学习从预训练的编码器中蒸馏item emb 和。这里只考虑正样本的对比度量,而不是常用的Info-NCE。损失函数为下式,F是度量函数,如smooth L1,采用度量函数对解码后的和原始编码得到的emb进行对比。(这里采用的方式和SimSiam这篇文章类似,那时候也可以试试用jepa的自监督方式,即预测mask部分)
ps:smooth L1的计算方式为下式,和其他损失的差异可以参考此文https://blog.csdn.net/c2250645962/article/details/106023381
本节构建了一个独立的双向Transformer解码器作为辅助模块利用语义知识来指导行为学习,而不是完全独立的解码。在行为code的开头添加一个标记,得到。然后,语义摘要token的emb输入到cross attention,使得解码器中的每个行为token关注语义的全局特征。输出特征表示为。基于此完成两个任务:重构和识别。
通过语义和行为可以得到对应的输出,首先采用beam search分别从两个输出中得到top-k个预测。然后,对于2*k个预测得到的代code,计算code上的对数概率作为每个预测的置信度得分,这与语言模型中使用的困惑相似,值越低表示置信度越高。最后,根据这些预测的置信度得分对其进行排序。
消融实验和一些度量损失的验证