
python之深度学习
文章平均质量分 67
python之深度学习
IMchg
这个作者很懒,什么都没留下…
展开
-
代码笔记_AE_HMEAE
名词作为触发词的例子:'CNN_CF_20030303.1900.00'['He', 'lost', 'an', 'election', 'to', 'a', 'dead', 'man']从这个代码里面反思:1.word2idx什么时候执行?可以在产生dataset时、从dataloader中获取batch时、forward输入时;放在这些地方都是可以的,到底放在哪里更好?这份代码放在了,dataloader中;一般来说,对数据的预处理也确实也是放在dataloader中,比如pad;JMEE放原创 2021-05-09 16:02:03 · 453 阅读 · 0 评论 -
论文笔记_AE_HMEAE: Hierarchical Modular Event Argument Extraction
2019 EMNLP;github有官方源码(tensorflow);这篇论文模型和实验部分都非常简单,相当于是对DMCNN的改进;核心是想法;Abstract问题: 现有的AE独立地对每个论元分类,没有考虑论元之间的概念关联。作者解决: 作者提出所谓的概念层次,对论元的标签含义进一步抽象,得到一组新的抽象标签,为每个抽象标签创建一个可训练参数。由于多个论元可能属于同一个抽象标签,这样抽象标签的可训练参数中就包含这些论元之间的相关性,这有利于进行论元角色分类。一 Introduction大多数.原创 2021-05-08 16:41:54 · 603 阅读 · 0 评论 -
torch代码模板_加载外部词向量
加载词向量参数:# 加载词向量文件def load_embedding(wordemb_path): word2idx = {} wordemb = [] with open(wordemb_path,'r',encoding='utf-8') as f: for line in f: splt = line.split() assert len(splt)==WORD_DIM+1 vecto原创 2021-04-28 16:02:03 · 644 阅读 · 1 评论 -
论文笔记_ED_Gate Diversity and Syntactic Importance Scores for Graph Convolution Neural Network
AbstractGCN在ED中表现好,但是还存在问题;1.目前应用GCN时,GCN中隐藏向量在计算时没有考虑候选触发词(而ED的目标就是触发词分类),这样可能引入了无关系的信息;2.目前ED中,没有利用单词的上下文重要性得分信息,这个信息能从GCN中获取;作者的工作:1.提出门机制:过滤GCN隐藏向量中的噪音信息;2.门的上下文多样性;3.重要性得分一致性;一 Introduction作者认为ED中的GCN应用存在两个问题:1.GCN没有考虑候选触发词,GCN的隐藏向量中可能包含与候选触原创 2021-04-20 19:56:23 · 610 阅读 · 0 评论 -
pytorch_辅助代码、动态调整学习速率、早停法、随机种子、命令行、日志、进度条
学习率动态调整:https://blog.youkuaiyun.com/sinat_36618660/article/details/99650804https://www.freesion.com/article/6236443466/这篇文章解释的很清楚了,而且底下的评论也补充了:学习率预热策略是针对自适应优化器,如Adam和RMSProp。并不适用于CLR和SGDR这类的学习率调整策略,后者的学习速率是周期性增加和衰减。这个讲了一个包含warmup的scheduler,是线性增加和减小学习速率。和下面原创 2021-04-15 22:34:56 · 1183 阅读 · 0 评论 -
pytorch快速上手之三_使用Dataset、Dataloader
当要换成自己的数据集时,需要用Dataset、Dataloader处理数据集,将数据喂给模型使用dataset和dataloaderhttps://blog.youkuaiyun.com/He3he3he/article/details/105441083https://blog.youkuaiyun.com/zw__chen/article/details/82806900https://blog.youkuaiyun.com/u011995719/article/details/85102770https://blog.cs.原创 2020-12-11 22:43:38 · 515 阅读 · 0 评论 -
pytorch快速上手之二_排除计算图
GPU确实快,但是显存太小不够跑别人的代码时,可以把一些操作简化。如:原模型中使用了预训练模型Bert,且对Bert微调,如果实在跑不动,可以改为不微调Bert,先跑起来再说。with torch.no_grad()的作用:节省内存https://www.jianshu.com/p/1cea017f5d11https://blog.youkuaiyun.com/weixin_43178406/article/details/89517008补充说明:什么样的tensor可以调用backward()方法【即.原创 2020-12-11 22:43:06 · 1199 阅读 · 0 评论 -
pytorch快速上手之一_使用GPU
本系列博客,目的是快速上手训练和修改开源的pytorch模型,以用促学,主要解决以下问题:1.怎么在GPU上运算;2.怎么把不需要的运算排除计算图;3.怎么定义dataset、dataloader;4.怎么保存模型,加载模型,继续训练;已解决5.怎么计算准确率;6.怎么可视化loss、准确率的变化曲线;7.矩阵平行计算parallel;一 总述pytorch怎么使用GPU?什么能使用GPU?什么时候用GPU、什么时候用CPU?可以放到GPU上的,要么是tensor,要么是模型;G.原创 2020-11-27 16:16:36 · 1742 阅读 · 0 评论 -
pytorch_常用python操作
一 列表操作2.1 zip()、zip(*)https://blog.youkuaiyun.com/ezio23/article/details/81414092https://blog.youkuaiyun.com/weixin_41797117/article/details/80092633https://blog.youkuaiyun.com/qq_33727884/article/details/87276240zip()与zip(*)zip():输入是tuple或list,输出是zip对象,可转为list,其中元素原创 2020-11-27 15:39:08 · 462 阅读 · 0 评论 -
pytorch_numpy高维数组
https://www.runoob.com/numpy/numpy-array-manipulation.html高维数组切片 [,2]https://www.cnblogs.com/mengxiaoleng/p/11616869.html数组中的省略号https://blog.youkuaiyun.com/weixin_41637329/article/details/88362345https://blog.youkuaiyun.com/qq_33363973/article/details/79894982.原创 2020-11-27 15:37:22 · 1201 阅读 · 0 评论 -
pytorch_常见tensor操作
https://www.cnblogs.com/jiangkejie/p/10683531.htmlhttps://blog.youkuaiyun.com/qq_41131535/article/details/92842307https://zhuanlan.zhihu.com/p/76255917https://www.cnblogs.com/jiangkejie/p/10683531.html张量拼接随机张量创建https://blog.youkuaiyun.com/manduner/article/det.原创 2020-11-27 15:36:47 · 804 阅读 · 0 评论