【CTR排序】多任务学习之MMOE模型

本文介绍了MMOE模型在多任务学习中的应用,特别是在推荐系统中的排序任务。MMOE通过引入多个专家和门控网络,解决了硬参数共享的局限性,提高了模型的表达能力和泛化性能。文章详细讨论了模型的背景、理论部分、复现过程以及训练中遇到的问题,如样本不均衡和极化现象,并探讨了解决方案。此外,还分享了不同平台的预估分数融合策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习总结

  • 常见的多任务模型有三种范式:
    • hard parameter sharing:底部有shared bottom,然后上层用全连接层分别学习特定任务模式,但是当两个任务相关性没那么好(比如排序中的点击率与互动,点击与停留时长),共用一套shared bottem参数的效果就可能没这么好了。
    • soft parameter sharing: 这个范式对应的结果从MOE->MMOE->PLE等。没有shared bottom,而是有不同权重的不同专家tower进行组合预测。
    • 任务序列依赖关系建模:如ESSM,DBMTL,ESSM2等都是属于该范式。这种适合于不同任务之间有一定的序列依赖关系。比如电商场景里面的ctr和cvr,其中cvr这个行为只有在点击之后才会发生。所以这种依赖关系如果能加以利用,可以解决任务预估中的样本选择偏差(SSB)和数据稀疏性(DS)问题
      • 样本选择偏差: 后一阶段的模型基于上一阶段采样后的样本子集训练,但最终在全样本空间进行推理,带来严重泛化性问题
      • 样本稀疏: 后一阶段的模型训练样本远小于前一阶段任务
  • MOE混合专家模型的几个思想:bagging模型集成思想、注意力机制(不同专家的决策地位不同)、multi-head机制(多个专家即多个head,代表了不同的非线性空间)。
  • Multi-gate Mixture-of-Experts(MMOE)的魅力就在于在MOE的基础上,对于每个任务都会涉及一个门控网络,这样,对于每个特定的任务,都能有一组对应的专家组合去进行预测。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

山顶夕景

小哥哥给我买个零食可好

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值