
自然语言处理
wzxsjdt
这个作者很懒,什么都没留下…
展开
-
机器学习基础研究、NLP基础研究、NLP综合研究
基础性研究: 网络架构 优化理论 对抗训练 数据增强 半监督学习 域迁移 遗传算法 增强学习 meta learning auto-ml 多任务学习 多模态学习:不同类型的数据集,一起用进来(图像+文本,结构化信息+文本) 集成学习 图网络 知识图谱 机器推理:1+1=2 2+2=4 => 4+4=8 NLP算法: 预训练语言模型,xlnet 文本...原创 2020-03-02 21:09:30 · 273 阅读 · 0 评论 -
机器学习模型评价指标梳理
本文对机器学习模型常见的评价指标进行梳理:准确率、召回率、F-score、AUC、ROC、敏感度、特异度等原创 2020-02-12 14:40:14 · 355 阅读 · 0 评论 -
词向量的发展及word2vec全解
一 引言 语言的本质是信息的编码,如何把自然语言用更好的计算机能理解的数学表示出来,是自然语言处理的重要内容。 从最常用的one-hot到各种基于统计的参数模型,再到最近的基于神经网络的word2vec、bert等模型,都是为了更好的表征自然语言。 简而言之,嵌入向量空间的词向量vector是表达自然语言最好的方式。 语言表征的终极目标: 本文先分析词向量的发展,再分析word2ve...原创 2020-02-12 14:36:08 · 248 阅读 · 0 评论 -
RNN演进之路-RNN-LSTM-GRU-DT(DL4MTGRULAUTransiLNCell)
本文仅对NLP应用广泛的RNN结构进行简单汇总比较:好看的图是copy的网上现有最形象的,不好看的是我自己画的。 一、RNN标准版---传统RNN 可以有效处理序列的深度学习。双向RNN未画出,方向相反,用于上下文参考。 二、LSTM长短时记忆与GRU----现代RNN 有效解决RNN中长序列的梯度消失和梯度爆炸问题,解决方式是改变传统RNN时刻间的连乘改为叠加的形式。...原创 2019-10-13 22:35:08 · 890 阅读 · 2 评论