
NLP
文章平均质量分 73
自然语言处理系列博客
键盘哥
还是一个刚入行的菜鸟!!
展开
-
Pytorch 实战RNN
一、简单实例# coding:utf8import torch as tfrom torch import nnfrom torch.autograd import Variable#输入词用10维词向量表示#隐藏层用20维向量表示#两层LSTMrnn =nn.LSTM(10,20,2)# 输入每句话有5个词# 每个词由10维的词向量表示#总共有3句话(batch size)input =Variable(t.randn(5,3,10))# 隐藏元的初始值(num_layer原创 2021-01-31 23:10:39 · 1222 阅读 · 0 评论 -
Pytorch : Dataset和DataLoader
一、综述Dataset :对数据进行抽象,将数据包装为Dataset类。DataLoader:在 Dataset之上对数据进行进一步处理,包括进行乱序处理,获取一个batch_size的数据等。二、Dataset在Dataset类中必须重新 getitem()、len()两个方法。创建数据ss=np.linspace(1,100,100)np.savetxt("sample_data.txt", ss.reshape(-1,4))数据格式如下所示:2. 创建自定义Dataset原创 2021-01-26 12:09:52 · 801 阅读 · 0 评论 -
LSTM与GRU
LSTM 与 GRU一、综述LSTM 与 GRU是RNN的变种,由于RNN存在梯度消失或梯度爆炸的问题,所以RNN很难将信息从较早的时间步传送到后面的时间步。LSTM和GRU引入门(gate)的机制,通过门控制序列信息中要丢弃或保留的数据,在一定程度上缓解了RNN无法将信息传送到较后时间步的问题。二、LSTMLong Shot-Term Memory(长短时记忆网络),通过引入门的机制,实现对信息的“记忆”。记忆是一种随时间变化的状态。决定记忆状态的两大因素:选择性的输入、选择性的遗忘。L原创 2021-01-24 23:02:01 · 1284 阅读 · 1 评论 -
RNN
RNN一、综述当我们考虑一个问题的时候,并不是从零开始的。例如我们做阅读理解题时,我们分析问题是基于我们对之前阅读内容的一个理解,而不是忘掉前面阅读的内容,从新开始思考。RNN(Recurrent Neural Network)的原理就是将信息持久化,通过对之前内容的理解,做出判断。例如:通过之前用户对某家商店的评论情况学习,判断当前用户对该商店的评论属于好评还是差评。二、 RNN结构一个简单的循环神经网络由:输入层、隐藏层和输出层组成。网络在t时刻接收到输入xtx_txt之后,隐藏层的值原创 2021-01-24 18:15:48 · 207 阅读 · 0 评论