
NLP理论到实战
Onedean
Stay Hungry,Stay Foolish
展开
-
【NLP理论到实战】20 seq2seq模型原理及demo实例
文章目录Seq2Seq模型的原理目标1. Seq2Seq的介绍2. Seq2Seq模型的实现2.1 实现流程2.2 文本转化为序列2.3 准备数据集2.3.1 准备`Dataset`2.3.2 准备`DataLoader`2.4 准备编码器2.5 实现解码器2.6 完成seq2seq模型2.7 完成训练逻辑2.8 完成模型评估逻辑Seq2Seq模型的原理目标知道seq2seq的常见应用场景能够说出常见的seq2seq的结构能够使用代码完成基础的seq2seq的结构1. Seq2Seq的介原创 2020-12-27 22:56:28 · 3789 阅读 · 1 评论 -
【NLP理论到实战】12 神经网络中的序列化容器
文章目录Pytorch中的序列化容器目标1. 梯度消失和梯度爆炸1.1 梯度消失1.2 梯度爆炸1.3 解决梯度消失或者梯度爆炸的经验2. `nn.Sequential`3. `nn.BatchNorm1d`4. `nn.Dropout`Pytorch中的序列化容器目标知道梯度消失和梯度爆炸的原理和解决方法能够使用nn.Sequential完成模型的搭建知道nn.BatchNorm1d的使用方法知道nn.Dropout的使用方法1. 梯度消失和梯度爆炸在使用pytorch中的序列化 容器原创 2020-12-19 23:57:36 · 339 阅读 · 1 评论 -
【NLP理论到实战】11 循环神经网络实现文本情感分类
文章目录循环神经网络实现文本情感分类目标1. Pytorch中LSTM和GRU模块使用1.1 LSTM介绍1.2 LSTM使用示例1.3 GRU的使用示例1.4 双向LSTM1.4 LSTM和GRU的使用注意点2. 使用LSTM完成文本情感分类2.1 修改模型2.2 完成训练和测试代码2.3 模型训练的最终输出循环神经网络实现文本情感分类目标知道LSTM和GRU的使用方法及输入输出的格式能够应用LSTM和GRU实现文本情感分类1. Pytorch中LSTM和GRU模块使用1.1 LSTM介绍原创 2020-12-19 23:54:04 · 1262 阅读 · 1 评论 -
【NLP理论到实战】10 循环神经网络理论知识
文章目录循环神经网络目标1. 循环神经网络的介绍2. LSTM和GRU2.1 LSTM的基础介绍2.2 LSTM的核心2.3 逐步理解LSTM2.3.1 遗忘门2.3.2 输入门2.3.3 输出门2.4 GRU,LSTM的变形3. 双向LSTM循环神经网络目标能够说出循环神经网络的概念和作用能够说出循环神经网络的类型和应用场景能够说出LSTM的作用和原理能够说出GRU的作用和原理1. 循环神经网络的介绍为什么有了神经网络还需要有循环神经网络?在普通的神经网络中,信息的传递是单向原创 2020-12-13 17:16:04 · 597 阅读 · 0 评论 -
【NLP理论到实战】09 文本情感分类项目实战
文本情感分类目标知道文本处理的基本方法能够使用数据实现情感分类的1. 案例介绍为了对前面的word embedding这种常用的文本向量化的方法进行巩固,这里我们会完成一个文本情感分类的案例现在我们有一个经典的数据集IMDB数据集,地址:http://ai.stanford.edu/~amaas/data/sentiment/,这是一份包含了5万条流行电影的评论数据,其中训练集25000条,测试集25000条。数据格式如下:下图左边为名称,其中名称包含两部分,分别是序号和情感评分,(1-4原创 2020-12-08 12:25:49 · 1611 阅读 · 1 评论 -
【NLP理论到实战】08 自然语言处理基础理论
文章目录循环神经网络和自然语言处理介绍目标1. 文本的`tokenization`1.1 概念和工具的介绍1.2 中英文分词的方法2. `N-garm`表示方法3. 向量化3.1 one-hot 编码3.2 word embedding3.3 word embedding API3.4 数据的形状变化循环神经网络和自然语言处理介绍目标知道token和tokenization知道N-gram的概念和作用知道文本向量化表示的方法1. 文本的tokenization1.1 概念和工具的介绍原创 2020-12-08 11:46:44 · 565 阅读 · 0 评论 -
【NLP理论到实战】07 pytorch实现手写数字识别
使用Pytorch实现手写数字识别目标知道如何使用Pytorch完成神经网络的构建知道Pytorch中激活函数的使用方法知道Pytorch中torchvision.transforms中常见图形处理函数的使用知道如何训练模型和如何评估模型1. 思路和流程分析流程:准备数据,这些需要准备DataLoader构建模型,这里可以使用torch构造一个深层的神经网络模型的训练模型的保存,保存模型,后续持续使用模型的评估,使用测试集,观察模型的好坏2. 准备训练集和测试集原创 2020-12-06 12:59:36 · 797 阅读 · 1 评论 -
【NLP理论到实战】06 pytorch中的数据加载
文章目录Pytorch中的数据加载目标1. 模型中使用数据加载器的目的2. 数据集类2.1 Dataset基类介绍2.2 数据加载案例3. 迭代数据集4 pytorch自带的数据集4.1 torchversion.datasets4.2 MNIST数据集的介绍Pytorch中的数据加载目标知道数据加载的目的知道pytorch中Dataset的使用方法知道pytorch中DataLoader的使用方法知道pytorch中的自带数据集如何获取1. 模型中使用数据加载器的目的在前面的线性原创 2020-12-05 23:25:07 · 762 阅读 · 0 评论 -
【NLP理论到实战】05 调用 pytorch API完成基础的线性模型
文章目录Pytorch完成基础的线性模型目标1. Pytorch完成模型常用API1.1 `nn.Module`1.2 优化器类`torch.optim`1.3 损失函数`nn.xxxLoss()`1.4 把线性回归完整代码2. 在GPU上运行代码3. 常见的优化算法介绍3.1 梯度下降算法(batch gradient descent BGD)3.2 随机梯度下降法 (Stochastic gradient descent SGD)3.3 小批量梯度下降 (Mini-batch gradient desc原创 2020-12-05 23:07:15 · 406 阅读 · 0 评论 -
【NLP理论到实战】04 Pytorch完成线性回归
文章目录Pytorch完成线性回归目标1. 向前计算1.1 计算过程1.2 requires_grad和grad_fn2. 梯度计算3. 线性回归实现Pytorch完成线性回归目标知道requires_grad的作用知道如何使用backward知道如何手动完成线性回归1. 向前计算pytorch的一个重要特点就是动态计算图(Dynamic Computational Graphs)。计算图中每一个节点代表一个变量,变量间建立运算关系并且可以修改,而不像Tensorflow中的计算图是原创 2020-12-03 22:32:09 · 395 阅读 · 0 评论 -
【NLP理论到实战】03 梯度下降和反向传播
文章目录梯度下降和反向传播目标1. 梯度是什么?2. 偏导的计算2.1 常见的导数计算2.2 多元函数求偏导3. 反向传播算法3.1 计算图和反向传播3.2 神经网络中的反向传播3.2.1 神经网络的示意图3.2.2 神经网络的计算图梯度下降和反向传播目标知道什么是梯度下降知道什么是反向传播1. 梯度是什么?梯度:是一个向量,导数+变化最快的方向(学习的前进方向)回顾机器学习收集数据xxx ,构建机器学习模型fff,得到f(x,w)=Ypredictf(x,w) = Y_{p原创 2020-12-02 21:53:26 · 385 阅读 · 0 评论 -
【NLP理论到实战】02 pytorch安装与入门操作
文章目录一、Pytorch的安装目标1. Pytorch的介绍2. Pytorch的版本3. Pytorch的安装二、Pytorch的入门使用目标1. 张量Tensor2. Pytorch中创建张量3. Pytorch中tensor的常用方法4. tensor的数据类型5. tensor的其他操作一、Pytorch的安装目标知道如何安装pytorch1. Pytorch的介绍Pytorch是一款facebook发布的深度学习框架,由其易用性,友好性,深受广大用户青睐。2. Pytor原创 2020-12-02 00:24:13 · 296 阅读 · 0 评论 -
【NLP理论到实战】01 深度学习和神经网络的介绍
文章目录一、深度学习的介绍目标1. 深度学习的概念2. 机器学习和深度学习的区别2.1 区别一 :特征提取2.2 区别二:数据量3. 深度学习的应用场景4. 常见的深度学习框架二、神经网络的介绍目标1. 人工神经网络的概念2. 神经元的概念3. 单层神经网络4. 感知机5. 多层神经网络6. 激活函数6. 神经网络示例一、深度学习的介绍目标知道什么是深度学习知道深度学习和机器学习的区别能够说出深度学习的主要应用场景知道深度学习的常见框架1. 深度学习的概念深度学习(英语:deep原创 2020-12-01 20:50:14 · 312 阅读 · 0 评论