由于 Word2vec 的流行,越来越多的 Embedding 方法可以被直接用于物品 Embedding 向量的生成,而用户 Embedding 向量则更多通过行为历史中的物品 Embedding 平均或者聚类得到。利用用户向量和物品向量的相似性,可以直接在推荐系统的召回层快速得到候选集合,或在排序层直接用于最终推荐列表的排序。正是基于这样的技术背景,微软于 2016 年提出了计算物品 Embedding 向量的方法 Item2vec。
相比 Word2vec 利用 “词序列” 生成词 Embedding。Item2vec 利用的 “物品序列” 是由特定用户的浏览、购买等行为产生的历史行为记录序列。
假设Word2vec中一个长度为T的句子为 w 1 , w 2 , . . . , w T w_1,w_2,...,w_T w

最低0.47元/天 解锁文章
1824

被折叠的 条评论
为什么被折叠?



