
深度学习
文章平均质量分 63
可以调素琴
NLP[KG-dialogue]
展开
-
tensorflow学习率的指数衰减函数
learning_rate= tf.train.exponential_decay( )摘自 博客园转载 2019-06-05 20:08:31 · 820 阅读 · 0 评论 -
pytorch--load()模型参数加载
加载模型,一部分用于测试阶段,主要知识点在于数据加载的问题【torch.device】官网链接1官网链接2不解释save代码示例:>>> torch.load('tensors.pt')# Load all tensors onto the CPU>>> torch.load('tensors.pt', map_location=torch.dev...原创 2019-08-09 23:14:23 · 5860 阅读 · 0 评论 -
nlp顶会论文集地址
1,ACL:https://aclweb.org/anthology/venues/acl/原创 2019-08-13 19:19:41 · 1634 阅读 · 0 评论 -
nlp--task:NLG
1,NLG(natural language generation)• Machine Translation • (Abstractive) Summarization• Dialogue (chit-chat and task-based)• Creative writing: storytelling, poetry-generation • Freeform Question Ans...原创 2019-07-19 05:59:45 · 726 阅读 · 0 评论 -
NLP-BLEU评估方法
2019-06-29下午cs224n assignment4一篇博客nltk接口转载 2019-06-29 14:36:30 · 595 阅读 · 0 评论 -
pytorch- .masked_fill_
masked_fill_(mask, value)掩码操作Fills elements of self tensor with value where mask is one. The shape of mask must be broadcastable with the shape of the underlying tensor.参数mask (ByteTensor) – the b...原创 2019-06-29 11:56:31 · 5036 阅读 · 0 评论 -
pack/pad_packed_sequence
2019-06-29上午cs224n assignment4A 为什么要进行pack?!就是对pad_token的删除及填充操作,避免rnn计算不必要的pad-token1,pack_padded_sequence(删去pad-token)-官网链接1_a,具体形式torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_...原创 2019-06-29 11:27:12 · 1124 阅读 · 2 评论 -
pytorch.unsqueeze及bmm函数
2019-06-28晚cs224n-winter2019-assignment4用pytorch实现seq2seq-attention NMT Model(神经机器翻译模型)unsqueezea = torch.randn(5,4)for i in range(-3,3): b = torch.unsqueeze(a,dim=i) print('{} _th size:{...原创 2019-06-28 23:14:29 · 1641 阅读 · 0 评论 -
Dropout算法
刚接触深度学习的时候觉得dropout很简单,参数太多,随便挑几个扔了呗这样就可以防止过拟合。我所没有想到的是:在训练中中进行的dropout并不是真正的drop,它只是在每个激活层激活之前设置了一个随机过滤器,不去计算这些参数,但事实上这些参数在接下来的测试步骤中并没有被扔掉!缩放!下面是cs224n第五课的作业可以去参考的博客...原创 2019-06-24 21:03:56 · 1945 阅读 · 0 评论 -
matplotlib-决策界面可视化
引子:tensorflow游乐场图决策界面图直观的展示了模型分类效果,如下1,原始样本分布图2,模型决策界面可视化结果a-线性模型b-3层神经网络可见模型效果非常直观实现流程1,首先应该得到图中每个点(夸张的说法,但必须覆盖样本点,且点数 >> 样本点数)2,根据所得模型,计算所有点的分类情况思路很简单,主要是matplotlib,numpy相应函数的组合...原创 2019-07-01 16:49:59 · 763 阅读 · 2 评论 -
tensorflow中的global_step如何更新的问题
在看各种tensorflow书籍的时候,相信大家看到global_step = tf.Variable(0,trainable = False) 都很迷惑吧,nmd说的好听当前迭代的轮数但这玩意怎么更新?源代码又不敢看,心里又痒痒。。。。。。看这里...转载 2019-06-04 13:33:52 · 1667 阅读 · 0 评论 -
反向传播---来自stanford :)
转载一篇好文章深度学习的BPTT反向传播梯度求导目前还是没有看明白原创 2019-06-10 10:21:29 · 428 阅读 · 0 评论 -
CS224n-2019 课后作业1 及答案【个人】
作业链接答案(欢迎指出不足)Question 1.1: Implement distinct_words [code] (2 points) # ------------------ # Write your implementation here. temp = [] for i in corpus: for k in i: ...原创 2019-06-14 12:26:49 · 2452 阅读 · 2 评论 -
CNN学习日志
LeNet-5 模型给我的初体验非常不好,目前为止还没有实际的感觉到卷积的优点,或者是LeNET-5的优点,以下是完整训练代码:卷积层-池化层-卷积层-池化层-全连接-全连接这里有个问题:学到现在我并不觉得深度学习的合理性很好,大部分观点都是基于日常生活经验就是猜罢了(或许日后会为今天的言论感到惭愧,但我从传统机器学习理论结束之后就觉得因果关系是未来)代码如下:【来自实战google深度学习框...原创 2019-06-08 16:09:26 · 493 阅读 · 0 评论 -
一篇transformer优质博客
注:准备 Bert + Bilstm + crf的ner结构大名鼎鼎:attention is all you need原创 2019-10-06 11:28:58 · 234 阅读 · 0 评论