文章目录
李宏毅深度学习与NLP课程
https://www.bilibili.com/video/BV1JE411g7XF?p=54
https://www.bilibili.com/video/BV1tK4y1s7kT
复旦神经网络课程
唐宇迪:深度学习项目实战-Seq2Seq序列生模型+用RNN与LSTM网络原理进行唐诗生成
1espresso阿婆主
https://www.bilibili.com/video/BV1P4411F77q?from=search&seid=5712418114903976289
NLP从入门到放弃
https://www.bilibili.com/video/BV1Di4y1c7Zm?from=search&seid=10051400152187759821
Transformer从零详细解读(可能是你见过最通俗易懂的讲解)
https://www.bilibili.com/video/BV1a5411j7Sw?from=search&seid=10051400152187759821
BERT专题系列(二):Transformer (Attention is all you need)
https://www.bilibili.com/video/BV13t411j7PM?from=search&seid=10051400152187759821
本文围绕李宏毅和复旦大学的深度学习与NLP课程,探讨Seq2Seq模型、Attention机制以及Transformer的详细解读,通过一系列视频资源帮助读者从入门到理解这些关键概念。
1190

被折叠的 条评论
为什么被折叠?



