
nlp
_ToClannadQAQ
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
word2vec 公式推导
https://www.cnblogs.com/peghoty/p/3857839.html转载 2019-11-29 06:20:56 · 252 阅读 · 0 评论 -
nlp 从Word Embedding到Bert
参考自知乎 https://zhuanlan.zhihu.com/p/49271699转载 2019-08-20 17:42:16 · 145 阅读 · 0 评论 -
word2vec 词向量的理解
word2vec词向量的理解 参考自知乎 - [NLP] 秒懂词向量Word2vec的本质 https://zhuanlan.zhihu.com/p/26306795转载 2019-08-16 11:44:34 · 350 阅读 · 0 评论 -
word2vec+textcnn
word2vec+textcnn 参考自 https://www.jianshu.com/p/f69e8a306862转载 2019-08-16 18:06:37 · 1307 阅读 · 0 评论 -
Encoder-Decoder、Seq2Seq、Attention
RNN中为什么使用使用tanh激活,不用sigmoid、Relu Encoder-Decoder模型 Seq2Seq Attention机制 转载自https://blog.youkuaiyun.com/dcrmg/article/details/84396211转载 2019-09-04 14:57:17 · 186 阅读 · 0 评论 -
attention
转载 https://blog.youkuaiyun.com/BVL10101111/article/details/78470716转载 2019-09-28 16:49:56 · 330 阅读 · 0 评论