Sequential Scenario-Specific Meta Learner for Online Recommendation简析

本文介绍了Sequential Scenario-Specific Meta Learner(s2Meta),它旨在解决推荐系统的冷启动问题。s2Meta通过元学习初始化推荐器,并采用灵活的更新策略和早停策略以适应具体场景,防止过拟合。实验部分讨论了参数初始化、更新策略和早停策略,以及元学习器的训练方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Sequential Scenario-Specific Meta Learner for Online Recommendation

Introduction

​ 冷启动是个长期存在的挑战对于一般的推荐场景来说。大多数推荐算法依赖于大量的观察数据,以及对于没什么联系的推荐算法产生不了足够好的效果。为了解决这个问题,文章使用了few-shot learning以及meta learning,提出了Scenario-specific Sequential Meta learner。元学习器可以产生一个一般的初始化模型通过整合许多预测任务的上下文信息同时模型可以有效适用于具体任务。

​ 序列过程主要包括三个步骤:

  1. 元学习器自动初始化推荐器以对多数场景适用
  2. 利用灵活的更新 策略来微调参数
  3. 及时停止学习以避免过拟合

FrameWork

在这里插入图片描述

Recommender Network

Embedding Module:

与一般one-hot 向量的embedding方法相同。

eu=Uxu,ei=Ixie_u=Ux_u, e_i=Ix_ieu=Uxu,ei=Ixi

Hidden Layer Module:

将user和item embedding concat后,送入多层感知机。

eui=[eu,ei]e_{ui}=[e_u,e_i]eui=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值