Nlp
文章平均质量分 63
可以调素琴
NLP[KG-dialogue]
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
CS224n-2019 课后作业1 及答案【个人】
作业链接 答案(欢迎指出不足) Question 1.1: Implement distinct_words [code] (2 points) # ------------------ # Write your implementation here. temp = [] for i in corpus: for k in i: ...原创 2019-06-14 12:26:49 · 2490 阅读 · 2 评论 -
pytorch--load()模型参数加载
加载模型,一部分用于测试阶段,主要知识点在于数据加载的问题【torch.device】 官网链接1 官网链接2 不解释save 代码示例: >>> torch.load('tensors.pt') # Load all tensors onto the CPU >>> torch.load('tensors.pt', map_location=torch.dev...原创 2019-08-09 23:14:23 · 5933 阅读 · 0 评论 -
nlp顶会论文集地址
1,ACL:https://aclweb.org/anthology/venues/acl/原创 2019-08-13 19:19:41 · 1722 阅读 · 0 评论 -
nlp中mask(掩码)操作总结--解决语句输入长短不一问题
注:看了许多种任务,机器翻译,实体命名识别,对话系统。有趣的是虽然网络结构都大同小异基本上都是seq2seq,但是里面的语句处理部分每位作者真是—八仙过海各显神通【其实算法思想都差不多,只不过调用的函数五花八门】 对流程熟悉的人应该都了解在整个训练过程中为了提高速度,都会采用mini_batch。随之而来的问题 便是一个batch中的句子不可能长度都相等,这样就给数据的规范化带来了不便,这是便需要...原创 2019-07-27 22:40:19 · 4368 阅读 · 0 评论 -
beam-search及其torch实现
注: 来源于cs224n2019-a4作业代码 NG视频介绍 我的另一篇博客 beam-search为一种解码算法,应用于test部分,在train中不使用因为train都会有一个正确答案,并不需要特地的去选择。思想~~最短路径,一定要理解它与维特比算法以及greedysearch之间的区别,这里不多叙述。 流程 以【seq2seq-attention】为例,beam-size= 3,输入X首先...原创 2019-08-03 17:18:13 · 3724 阅读 · 0 评论 -
nlp--task:NLG
1,NLG(natural language generation) • Machine Translation • (Abstractive) Summarization • Dialogue (chit-chat and task-based) • Creative writing: storytelling, poetry-generation • Freeform Question Ans...原创 2019-07-19 05:59:45 · 775 阅读 · 0 评论 -
NLP-BLEU评估方法
2019-06-29下午 cs224n assignment4 一篇博客 nltk接口转载 2019-06-29 14:36:30 · 634 阅读 · 0 评论 -
pytorch- .masked_fill_
masked_fill_(mask, value) 掩码操作 Fills elements of self tensor with value where mask is one. The shape of mask must be broadcastable with the shape of the underlying tensor. 参数 mask (ByteTensor) – the b...原创 2019-06-29 11:56:31 · 5095 阅读 · 0 评论 -
pack/pad_packed_sequence
2019-06-29上午 cs224n assignment4 A 为什么要进行pack?!就是对pad_token的删除及填充操作,避免rnn计算不必要的pad-token 1,pack_padded_sequence(删去pad-token)-官网链接 1_a,具体形式 torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_...原创 2019-06-29 11:27:12 · 1156 阅读 · 2 评论 -
pytorch.unsqueeze及bmm函数
2019-06-28晚 cs224n-winter2019-assignment4 用pytorch实现seq2seq-attention NMT Model(神经机器翻译模型) unsqueeze a = torch.randn(5,4) for i in range(-3,3): b = torch.unsqueeze(a,dim=i) print('{} _th size:{...原创 2019-06-28 23:14:29 · 1688 阅读 · 0 评论 -
一篇transformer优质博客
注:准备 Bert + Bilstm + crf的ner结构 大名鼎鼎:attention is all you need原创 2019-10-06 11:28:58 · 268 阅读 · 0 评论
分享