标题: PPM : A Pre-trained Plug-in Model for Click-through Rate Prediction 地址:https://arxiv.org/pdf/2403.10049.pdf 公司:京东 会议:WWW 2024
相对于传统的ID形式的推荐系统(IDRec),本文在模型中引入预训练模型,但预训练模型的参数很多,会导致延迟增加。因此,大部分无法在推荐系统中使用。本文提出一种即插即用的方法,即PPM。PPM采用多模态特征作为输入,并利用大规模数据进行预训练。然后,将PPM插入到IDRec模型中,以提高统一模型的性能和迭代效率。在合并IDRec模型后,缓存网络内的某些中间结果,只有参数的子集参与训练和推理。因此,可以部署端到端模型,而不会增加延迟。
alt text
模态编码器层(ME)可以获得高质量的模态表征(图像、文本)。在这一层中,通过query匹配任务和实体预测任务,使用电商数据对预训练模型(BERT和ResNet)进行微调,得到给定商品的图像和文本表示。
基于SimCSE,使用对比query匹配任务来训练具有用户反馈的文本模型。
表示文本对的集合,每个文本对由搜索查询和来自用户搜索目录的点击商品的文本信息序列形成。然后通过文本模型对文本对进行编码以获得嵌入对
,训练目标为下式,其中B为batch size
使用预训练的视觉模型ResNet-101作为基础模型。为了使通用视觉模型适用于电商推荐,对ResNet-101进行了产品预测任务的微调。对于商品图片
, 预测给定图像中的关键实体
,训练目标为下式:
将从冻结的文本和视觉模型中提取的固定长度的emb拼接后,得到给定商品的多模态特征。
为了基于用户和商品之间的历史交互来学习用户偏好,首先从模态编码器层提取商品表征,然后使用双向transformer来捕获上下文信息,如图1左上角所示。同时在序列emb中需要考虑位置编码和时间间隔编码
点击的商品的模态表征序列经过多层双向transformer块得到对应的emb,h为序列表征Trm()表示transformer,输入为q,k,v
最后使用上述方法产生的emb和目标item的emb预测点击率,构造交叉熵损失函数
预训练的CTR模型可以集成到IDRec模型中,用于端到端训练。为了加快训练过程并最大限度地减少在线延迟,首先缓存多模式特征,从而能够在行为transformer层和CTR预测层内训练参数,包括基于ID的序列模块(IDSM)、PPM和多任务模块。
在序列模块中,用户交互序列为
,其中n是序列s的长度,i是一些ID信息(类别id,品牌id等)。双向transformer层(Trm)对用户行为序列进行编码,并对用户和商品的关系进行建模。同时加入位置信息和时间间隔,整体和2.1.2中是类似的就是前面用的模态表征这里用的id信息。下面的id信息表示库存,商户,品牌和类别id
在本模块中,每个商品i由ME层提取的标题和图像表征。为了加速训练过程并最大限度地减少在线延迟,这些表征被缓存在hdfs中,而其他参数则通过预加载预训练的CTR模型来初始化。
多任务预测用户点击、下单或加购的概率。这些任务之间既有相互关系,也有区别。例如,用户在下单前肯定会点击一款产品,但他们点击的产品不一定是为了购买,可能只是出于对新发布的手机的好奇。利用MMoE对任务关系进行建模,并学习特定任务的特征以利用共享表示。N个专家和K个任务表示为下式,g为gate
融合不同expert的emb后基于不同任务的tower进行预测