- 博客(473)
- 收藏
- 关注

原创 python的基础知识
会用Python, 但是绝对称不上精通,因为几乎不会用python的高级特性,对python的基础也了解的不透彻,但好在有自知之明,并有深入了解的觉悟,还是孺子可教的。下面的这些网址都是看过觉得对明晰概念非常有帮助的,目前也在针对python的高级特性做思维导图,而后也会放于此处。https://www.cnblogs.com/zjltt/p/7001982.html...
2019-08-07 10:40:49
350

原创 NLP知识要点总结
NLP四大任务类型:分类、序列标注、文本匹配、文本生成练习地址:https://github.com/FudanNLP/nlp-beginnerhttps://www.zhihu.com/question/324189960
2019-06-30 22:53:45
498

原创 seq2seq框架中技术要点汇总
Copy Mechanism:解决OOV词来自于文章《Incorporating Copying Mechanism in Sequence-to-Sequence Learning》发表在ACL2016
2019-02-26 10:01:44
919

原创 machine learning的知识收集
机器学习笔记:https://zhuanlan.zhihu.com/danche PaperWeekly:https://zhuanlan.zhihu.com/paperweekly 深度学习与NLP:https://zhuanlan.zhihu.com/lqfarmerhttp://www.wildml.com/2015/11/understanding-convolutional-ne...
2018-02-05 16:35:57
536
原创 python List中元素两两组合
aa = ['a', 'b', 'c']bb = list(itertools.permutations(aa, 2))print(bb)print("######################")cc = list(itertools.combinations(aa, 2))print(cc)话不多说,运行结果解释一些
2020-05-22 20:49:09
26463
1
原创 NLP中三种特征抽取器的优与劣
RNN ( LSTM, GRU ) :缺点(1):无法并行,因此速度较慢(2):RNN无法很好地学习到全局的结构信息,尤其对于序列结构很长的CNN:BERT:
2020-04-25 11:28:35
942
原创 用TIKZ在LaTex中画图
我之前是用Edraw max画图的,但是有一个致命的问题就是在图上写字母的时候与图解释中不一致,所以尝试了一下LaTex画图,哎呀,耗费我一下午的时间呀首先导入包:\usepackage{tikz}源码如下:\begin{figure}[!t]\centering\begin{tikzpicture}\draw[color=black] (-1.8,-1.7) rectangle (3...
2020-01-15 19:06:24
5125
1
原创 transformer 中 tokenizer.tokenize() 和 tokenizer.encoder()
tokenizer.tokenize() :使用 tokenize() 函数对文本进行 tokenization之后,返回的分词的 token 词tokenizer.encoder():encode() 函数对 文本 进行 tokenization 并将 token 用相应的 token id 表示...
2020-01-05 16:52:06
8432
1
原创 LaTex字母上方箭头问题
N←\mathop{N} \limits ^{\leftarrow}N← :\mathop{N} \limits ^{\leftarrow}但是在知乎博客里的写法是 \mathop{N}^{\leftarrow}, 注意区别\limits 必须是与 \mathop搭配,对符号应用\mathop将其转为数学符号以后才能用\limits如果是数学符号,那么直接用\limits命令放在正下...
2019-12-25 15:08:49
11732
原创 python中 list 的组合问题
源于最近写程序频繁用到了list中元素两两组合问题,特意总结如下:list中相邻元素两两组合:portList = ['a', 'b', 'c', 'd']for i, p in enumerate(portList): if i == len(portList) - 1: break print(p, portList[i + 1]) ...
2019-12-19 12:59:54
1090
原创 pytorch中的repeat()
这两天写程序中需要,查到了一个非常好用的函数,烂笔头比好记性好用,记录下:import torchx = torch.tensor([1, 2, 3])print(x.repeat(4))print("###################################")print(x.repeat(4, 1))运行结果如下:import torchx = torch.te...
2019-12-16 20:47:09
4991
3
原创 pytorch中的一些方法用法集锦
pack_padded_sequence和pad_packed_sequence在 看源码的时候看到的,不懂啥意思,特意冲浪了番,记录于此。https://www.cnblogs.com/sbj123456789/p/9834018.html这个网址给出了详细的前因后果,但是我觉得还不够明了,想要好好写下。稍等import torchimport torch.nn as nna = t...
2019-11-02 14:20:43
485
原创 关于scipy中的一些方法
纯粹是因为在看GCN的源码,里面涉及到很多scipy中的方法,对于这些不常用的方法感觉看一遍很快就忘记了,所以汇集在这儿吧。一、比较 todense() 和 toarray()import scipy.sparse as spa = sp.eye(5)print(type(a))print(a)print("------------------------------------")...
2019-10-27 15:31:49
699
原创 random.shuffle()和numpy.random.shuffle()
random.shuffle():import randoma = [1,2,3,4]b = [[5,6,7,8], [9,10,11,12]]#c = random.shuffle(a) #错误书写方式,该函数返回值为空,原地改变a中元素顺序random.shuffle(a)random.shuffle(b)print(a)print(b)输出的结果是:[4, 3, 1, ...
2019-10-23 10:30:43
2307
原创 pytorch关于随机种子的问题
import torchseed = 2018torch.manual_seed(seed) # 为CPU设置种子用于生成随机数torch.cuda.manual_seed(seed)#为当前GPU设置随机种子;如果使用多个GPU,应该使用torch.cuda.manual_seed_all()为所有的GPU设置种子。a=torch.rand([1,5])b=torch.rand([1,...
2019-10-22 17:06:37
1269
原创 DistributedParallel的资料集锦
再看pytorch-transformer的示例,里面涉及了分布式训练和预测,之前对此一无所知,学起来https://oldpan.me/archives/pytorch-to-use-multiple-gpus
2019-09-15 15:44:01
337
原创 [ACL2019]Graph-based Dependency Parsing with Graph Neural networks
Dependency Parsing目前有两种做法:(1) Transition-Based(2) Graph-Based构建树的过程中有三种解码算法:(1) dynamic programming {Three new probabilistic models for dependency parsing: An exploration}(2) maximum spanning tre...
2019-08-21 15:08:31
957
原创 TFRecord相关资料
我先把看到比较好的有关资料挂在此处,最后汇总画个图出来,这样便于记忆,否则看了也是白看,瞧瞧我这没用的小脑瓜。tf.train.Example的用法https://blog.youkuaiyun.com/hfutdog/article/details/86244944...
2019-08-11 15:25:26
298
原创 计算机的基础知识
时长感叹当时没有好好学习计算机的基础知识,导致现在对一些感念都模糊不清,领用零碎的时间补一补:进程和线程http://www.ruanyifeng.com/blog/2013/04/processes_and_threads.html...
2019-07-30 10:32:30
328
原创 傅里叶变换和拉普拉斯算子
最近在看傅里叶变换和拉普拉斯算子,看到的非常好非常好,容易理解又有形象概念的解释:傅里叶变换:如何给文科生解释傅里叶变换?https://www.jianshu.com/p/73f0ab14828a深入浅出的讲解傅里叶变换(真正的通俗易懂)https://zhuanlan.zhihu.com/p/19763358拉普拉斯算子:拉普拉斯变换中的S是个什么鬼https://mp.wei...
2019-07-18 09:18:22
7005
原创 tf.Variable和tf.get_variable的区别
https://blog.youkuaiyun.com/js54100804/article/details/80463520
2019-07-09 16:03:26
353
原创 docker学习资料集锦
https://www.cnblogs.com/wangqiaomei/p/5818636.htmlhttps://blog.youkuaiyun.com/birdben/article/details/49873725
2019-05-14 15:36:57
377
原创 tensorflow中的一些方法详解
tf.train.slice_input_producer:https://blog.youkuaiyun.com/dcrmg/article/details/79776876
2019-05-09 18:10:15
253
原创 tensorflow中control_flow_ops.while_loop
self.h0 = tf.zeros([self.batch_size, self.hidden_dim])self.h0 = tf.stack([self.h0, self.h0]) ## 相当于 h0和C0 # generator on initial randomness gen_o = tensor_array_ops.TensorArray(dtype=tf.float32,...
2019-04-28 18:54:42
1813
7
原创 强化学习资料集锦
感觉要学习的东西好多呀,感觉时间不够用啊不够用强化学习系列:http://www.cnblogs.com/steven-yang/p/6481772.html时序差分学习(Temporal-Difference Learning)https://blog.youkuaiyun.com/qq_30159351/article/details/72896220...
2019-04-18 14:03:19
474
原创 VAE学习资料集锦
英文:http://kvfrans.com/variational-autoencoders-explained/中文:https://www.cnblogs.com/huangshiyu13/p/6209016.html
2019-04-17 16:40:57
660
原创 数学基础知识
真想把自己捆起来暴打一顿,以前干什么去了,不好好学数学,到现在方觉数学重要啊,我是觉得这些网址对我补习想要的数学知识有很大帮助,便于以后复习,特意总结放在此处多元高斯模型:https://www.cnblogs.com/bingjianing/p/9117330.html...
2019-04-17 13:47:18
649
原创 [AAAI2019] DRr-Net:Dynamic Re-read Netwok for Sentence Semantic Matching
我现在是越来越偷懒了,不太喜欢总结了,但是又感觉不总结的话这篇文章很快就又忘记了,再看题目可能会陌生的觉得自己没看过,所以还是做个notes 好了...
2019-04-16 18:03:33
804
原创 VAE资料
我仔细看的就是这个,这个里面没涉及到很多数学公式及推到,但是在概念方面介绍的很浅显易懂,会陆续总结出好的VAE资料放予此处。(一)从自编码器到变分自编码器 :http://www.atyun.com/17888.html(二)从自编码器到变分自编码器:http://www.atyun.com/17976.html...
2019-04-16 17:57:56
1016
原创 KMP算法记录
讲解的非常好的KMP算法https://www.cnblogs.com/yjiyjige/p/3263858.htmlhttps://www.cnblogs.com/ZuoAndFutureGirl/p/9028287.htmlhttps://www.cnblogs.com/dusf/p/kmp.html
2019-04-15 15:48:28
263
原创 [ACL2018]Retrieve, Rerank and Rewrite:Soft Template Based Neural Summarization
本文的文本摘要是抽象式文本生成的方式这两个更,最好今天能更
2019-04-15 10:07:12
1003
原创 [ICLR2017] Machine Comprehension Using Match-LSTM and Answer Pointer
文章思路的框架图如下:本文涉及到的两个技术点:(1) match-LSTM: 第一次接触,后面会有详细介绍(2) Pointer Net: 针对这个网络有专门的解析,这里不再赘述https://blog.youkuaiyun.com/appleml/article/details/76988385本文还给出了该任务(Machine comprehension) 的解决的两个问题映射模型:(1) ...
2019-04-12 18:46:03
406
原创 [ICLR2017] Bi-Directional Attention Flow for Machine Comprehension
本文只给出了Context2Query和Query2Context部分的理解两部分只是对相似性矩阵S\bold{S}S ∈\in∈ RT∗J\mathbb{R}^{T*J}RT∗J 进行进一步处理, 我觉得有书写错误,如果看Figure 1可知应该修改为S\bold{S}S ∈\in∈ RJ∗T\mathbb{R}^{J*T}RJ∗T。Context-to-Query Attention:...
2019-04-08 14:54:16
497
原创 docx文档转txt
要处理一篇docx文件,python读取的时候不尽人意,本来想自己写个程序批处理转化文件,结果就发现了一个超好使的现有工具,处理结果非常理想。只需下载安装。完美http://www.multidoc-converter.com/en/index.html...
2019-03-22 15:32:11
3134
原创 pytorch中的transpose()
import torchbatch_index = torch.randn(2, 3, 4)batch_es = batch_index.transpose(0, 1)batch_ee = batch_index.transpose(1, 0)print(batch_index)print("&&&&&&&&&&am...
2019-03-20 10:38:40
16059
原创 torch.nn.dropout和torch.nn.dropout2d的区别
# -*- coding: utf-8 -*-import torchimport torch.nn as nnimport torch.autograd as autogradm = nn.Dropout(p=0.5)n = nn.Dropout2d(p=0.5)input = autograd.Variable(torch.randn(2, 6, 3)) ## 某一通道全部为0...
2019-03-19 19:28:42
25164
4
原创 [NAACL2016]Incorporating structural alignment biases into a attentional neural translat
目标函数很有新意,争取今天更
2019-03-19 10:00:36
319
原创 NLP resources
https://github.com/sebastianruder/NLP-progress上述链接就是NLP各种任务的总结,包括任务的解释等等
2019-03-15 16:12:01
280
原创 Paper List of Text Classification
[EMNLP2014] Convolutional Neural Networks for Sentence Classification
2019-03-15 14:07:42
240
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人