- 博客(1)
- 收藏
- 关注
原创 attention
文章目录Attention基本的Attention原理参考Hierarchical Attention原理实践参考Self Attentionother AttentionAttentionAttention是一种机制,可以应用到许多不同的模型中,像CNN、RNN、seq2seq等。Attention通过权重给模型赋予了区分辨别的能力,从而抽取出更加关键及重要的信息,使模型做出更加准确的判断,...
2019-03-19 21:57:57
1243
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅