Nlp
文章平均质量分 63
可以调素琴
NLP[KG-dialogue]
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
CS224n-2019 课后作业1 及答案【个人】
作业链接答案(欢迎指出不足)Question 1.1: Implement distinct_words [code] (2 points) # ------------------ # Write your implementation here. temp = [] for i in corpus: for k in i: ...原创 2019-06-14 12:26:49 · 2490 阅读 · 2 评论 -
pytorch--load()模型参数加载
加载模型,一部分用于测试阶段,主要知识点在于数据加载的问题【torch.device】官网链接1官网链接2不解释save代码示例:>>> torch.load('tensors.pt')# Load all tensors onto the CPU>>> torch.load('tensors.pt', map_location=torch.dev...原创 2019-08-09 23:14:23 · 5933 阅读 · 0 评论 -
nlp顶会论文集地址
1,ACL:https://aclweb.org/anthology/venues/acl/原创 2019-08-13 19:19:41 · 1722 阅读 · 0 评论 -
nlp中mask(掩码)操作总结--解决语句输入长短不一问题
注:看了许多种任务,机器翻译,实体命名识别,对话系统。有趣的是虽然网络结构都大同小异基本上都是seq2seq,但是里面的语句处理部分每位作者真是—八仙过海各显神通【其实算法思想都差不多,只不过调用的函数五花八门】对流程熟悉的人应该都了解在整个训练过程中为了提高速度,都会采用mini_batch。随之而来的问题便是一个batch中的句子不可能长度都相等,这样就给数据的规范化带来了不便,这是便需要...原创 2019-07-27 22:40:19 · 4366 阅读 · 0 评论 -
beam-search及其torch实现
注: 来源于cs224n2019-a4作业代码NG视频介绍我的另一篇博客beam-search为一种解码算法,应用于test部分,在train中不使用因为train都会有一个正确答案,并不需要特地的去选择。思想~~最短路径,一定要理解它与维特比算法以及greedysearch之间的区别,这里不多叙述。流程以【seq2seq-attention】为例,beam-size= 3,输入X首先...原创 2019-08-03 17:18:13 · 3723 阅读 · 0 评论 -
nlp--task:NLG
1,NLG(natural language generation)• Machine Translation • (Abstractive) Summarization• Dialogue (chit-chat and task-based)• Creative writing: storytelling, poetry-generation • Freeform Question Ans...原创 2019-07-19 05:59:45 · 775 阅读 · 0 评论 -
NLP-BLEU评估方法
2019-06-29下午cs224n assignment4一篇博客nltk接口转载 2019-06-29 14:36:30 · 634 阅读 · 0 评论 -
pytorch- .masked_fill_
masked_fill_(mask, value)掩码操作Fills elements of self tensor with value where mask is one. The shape of mask must be broadcastable with the shape of the underlying tensor.参数mask (ByteTensor) – the b...原创 2019-06-29 11:56:31 · 5094 阅读 · 0 评论 -
pack/pad_packed_sequence
2019-06-29上午cs224n assignment4A 为什么要进行pack?!就是对pad_token的删除及填充操作,避免rnn计算不必要的pad-token1,pack_padded_sequence(删去pad-token)-官网链接1_a,具体形式torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_...原创 2019-06-29 11:27:12 · 1156 阅读 · 2 评论 -
pytorch.unsqueeze及bmm函数
2019-06-28晚cs224n-winter2019-assignment4用pytorch实现seq2seq-attention NMT Model(神经机器翻译模型)unsqueezea = torch.randn(5,4)for i in range(-3,3): b = torch.unsqueeze(a,dim=i) print('{} _th size:{...原创 2019-06-28 23:14:29 · 1688 阅读 · 0 评论 -
一篇transformer优质博客
注:准备 Bert + Bilstm + crf的ner结构大名鼎鼎:attention is all you need原创 2019-10-06 11:28:58 · 268 阅读 · 0 评论
分享