
深度学习
文章平均质量分 55
七月听雪
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
HMM分词
两个假设:求解目标:根据两个假设可以得到:模型参数:发射概率矩阵(也称之为观测概率矩阵)HMM与CRF区别:1.CRF是判别式模型,HMM是生成式模型。linear-CRF模型要优化求解的是条件概率P(y|x),则 HMM要求解的是联合分布P(x,y)。 判别式模型和生成式模型的区别:机器学习中的判别式模型和生成式模型 - 知乎2....原创 2022-04-10 16:17:00 · 623 阅读 · 0 评论 -
实体对齐论文
实体对齐(实体链指 实体消歧)等主要是对预训练模型的微调。微调主要包括预训练任务微调和输入表示微调,其中输入表示微调一般是先验知识的引入,预训练任务的调整主要是使模型契合实体相关的任务。1.Global Entity Disambiguation with Pretrained Contextualized Embeddings of Words and Entitieshttps://arxiv.org/pdf/1909.00426v2.pdf输入表示:预训练任务:基于MLM的对.原创 2021-11-22 15:05:19 · 946 阅读 · 0 评论 -
NLP Subword三大算法原理:BPE、WordPiece、ULM
https://blog.youkuaiyun.com/xixiaoyaoww/article/details/104548745?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.nonecase原创 2020-07-04 08:29:27 · 518 阅读 · 0 评论 -
Attention原理简析
Attention现在太火了,磨蹭了好几天,终于要动手写写了。。。。https://mp.weixin.qq.com/s/MzHmvbwxFCaFjmMkjfjeSg https://lilianweng.github.io/lil-log/2018/06/24/attention-attention.htmlAttention的发展历史:Attention一般可以...原创 2019-08-10 20:32:34 · 905 阅读 · 0 评论 -
Seq2Seq——Attention模型原理解析
https://zhuanlan.zhihu.com/p/37290775 参考了这篇知乎。Seq2Seq,即通过Encoder将输入语句进行编码得到固定长度的Context Vector向量,(这个编码过程实际上是一个信息有损压缩的过程,也就是说编码器里所有的信息都要压缩在一个Context Vector中),随后再将Context Vector传给Decoder进行翻译结果的生成,在De...原创 2019-08-08 20:52:38 · 1246 阅读 · 0 评论