自然语言处理
文章平均质量分 50
主要是一些自然语言处理的基础知识和论文阅读的记录
若洲的算法与AI
喜欢研究机器学习、深度学习、数据结构等技术,主要对自然语言处理和推荐系统感兴趣,也会一些计算机视觉,目前正在做计算机视觉相关项目,也正在学习和实践,欢迎大家交流讨论。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
以transformer为基础的Bert和GPT
前面回顾了一些序列模型(RNN等),然后引出了attention transformer的学习,有了transformer这个强大的基础结构,就衍生出了许多强大复杂的大型模型。其中Bert和GPT是两个典型的代表,也是NLP领域预训练模型的代表。 下面结合许多资料,先手写了一点笔记,后面会总结整合成电子博客...原创 2021-08-20 23:18:46 · 634 阅读 · 1 评论 -
从RNN(循环神经网络)到Transformers
**背景:**近期,CV领域很多任务上都采用了transformer系列模型,自己也对这个原来主要用于处理时序信息的模型很感兴趣,所以开始对transformer的学习。由于很长一段时间都是做机器学习和CV,对于NLP相关的序列模型也只是当初入门深度学习的时候稍微学了一下,这里要学transformer,感觉还是有必要从RNN开始复习的,然后逐步到attention注意力机制,然后transformer(transformer 可以说就是attention 的另一个名字吧)**文章内容:**整个文章首先原创 2021-08-18 23:25:54 · 1038 阅读 · 0 评论
分享