
论文阅读
Multi-task
这个作者很懒,什么都没留下…
展开
-
[2017-NIPS-GOOGLE] Attention is all your need
文章目录论文地址:主要方法结构:EncoderSelf-Attention三个矩阵的使用方法:ffnnadd & normDecoderEncoder-Decoder Attention论文地址:https://arxiv.org/pdf/1706.03762.pdf主要方法抛弃使用Recurrent 和convolutional neural networks的结果。 只使用Se...原创 2019-07-07 15:44:49 · 235 阅读 · 0 评论 -
[2017-JD] Deep Reinforcement Learning for List-wise Recommendations
论文地址https://arxiv.org/pdf/1801.00209.pdf主要思想:1、一次推荐多个item2、状态s 为之前用户动作果的N个item的顺序集合。更新方法: 每次推荐之后, 将用户动作过的item放入其中。没有动作果的item相当于丢弃掉了。3、动作a 为某次推荐的K个item。比如在 ttt 时刻的动作a={at1,at2,...atK}a=\{a_t^1...原创 2019-06-23 16:52:16 · 615 阅读 · 1 评论