从身份证号码里提取生日和周岁的方法
830
2022-05-30
基于embedding的方法通常直接使用来自KG的信息来丰富物品或用户的表征。为了利用KG信息,知识图嵌入(KGE)算法需要应用于将KG编码为低维embedding。KGE算法可以分为两类:平移距离模型,如TransE 、TransH 、TransR 、TransD等,以及语义匹配模型,如DistMult 。根据用户是否包含在KG里面,embedding方法可以分为两类,一类是基于物品图,一类是基于用户-物品图。
基于物品图
KG由物品及其从数据集中抽取出的相关属性构成,将这类KG称为物品图。在这类KG中,不包含用户。对于这类图,可以通过KGE的算法,来表示KG中的物品,并将关于物品的表示合并至推荐框架中。
通常的做法是,
通过聚合KG中的相关物品信息以及物品属性向量
用户向量可以通过用户-物品交互矩阵,交互物品的embedding得到
通过一个函数将用户和物品向量映射成一个偏好得分。(利用点乘的方式或经过全连接层)
在推荐策略阶段,其得分结果将按降序排列
相关模型:
CKE:在CF框架中统一了各种类型的辅助信息。用KG来表示的物品属性信息,和物品的文本信息训练KG的embedding。物品向量通过TransR计算得到。用户向量通过用户-物品交互矩阵得到,对两个向量做点乘,对结果排序。
DKN:基于新闻推荐领域,将句子的上下文embedding通过CNN得到。文本中entity的知识级embedding使用TrankD表示。最终的物品向量由KG的entity embedding和高层次的语义信息聚合得到。用户向量通过attention计算用户的历史新闻信息得到。对于每一个用户向量,首先计算历史新闻中每一条新闻的softmax得分,然后对各个得分和对应的物品向量相乘求和,得到用户向量。利用全连接层计算得到最终得分。
KRS:利用GRU和KV-MV网络建模用户时序性的交互信息。GRU捕获用户的时序性信息,KV-MN通过TransE建模用户的特征信息。该方式能捕获用户的细粒度偏好。
基于用户-物品图
另一种直接基于embedding的方法构建用户-物品图,其中用户、物品及其相关属性作为节点,在用户-物品图中,属性级关系(品牌、类别等)和用户相关关系(共同购买、共同视图等)都作为边。之后获取图形中实体的embedding,用点乘计算用户的偏好,也可以进一步考虑图中的关系embedding,再进行点乘计算。
相关模型:
CFKGF:构建用户物品图谱,用户行为作为关系类型以及物品的辅助信息。
有些论文有试图通过强化的实体/关系表示来提高推荐性能。
KTGAN:物品知识embedding向量通过Metapath2Vec得到,电影物品的tag信息通过Word2vec得到,最终的物品向量是上面两个的拼接。用户向量是由用户喜爱的电影知识embedding的平均向量和用户标签embedding拼接得到。然后通过一个生成器模型生成用户喜爱的电影,利用得分函数,段判别模型是一个二分类模型,来判别用户是否喜欢生成的电影。
BEM: 它使用物品的两种类型图,知识相关图(包含物品属性信息,如品牌、类别、等)和行为图(包含与物品交互相关的信息,包括共同购买、共同费率、共同添加到购物车)。BEM首先学习初始embedding,从知识相关图和行为图分别使用TransE模型和基于GNN的模型。BEM应用贝叶斯框架来细化这两种类型的embedding。推荐系统可以通过在行为图中的“共同购买”或“共同点击”的关系查找交互物品中最接近的物品。
基于embedding的多任务学习
基于embedding方法的另一个趋势是采取多任务策略学习,共同学习推荐任务KG相关任务,物品的embedding和KG的entity embedding共享参数。
相关模型:
KTUP:联合学习推荐模块和KG表示。
MKR:联合学习推荐模块和KG表示,前者学习用户和物品的潜在表示,而后者学习关联项的表示具有语义匹配KGE模型的实体。
RFC:对物品进行分层描述,包括其关系类型embedding和关系值embedding。使用KGE的DistMult模型保留物品之间的关系结构。通过attention机制分别对用户的类型偏好和价值偏好建模。
Embedding-base methods 总结
大多数基于embedding的方法是使用多类型的辅助信息构建KG来强化物品的表示,以及对用户信息精确建模。另一部分模型将用户引入图用来构建用户-物品图谱,这样可以直接贵用户的偏好建模。
因为实体embedding是embedding-base的核心,所以部分论文通过GAN和BEM来强化embedding以到达更好的推荐效果。还有部分策略是通过联合学的方式,联合训练推荐模块和关系图来提高推荐质量。
推荐系统 RES 深度学习
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。