
NLP
1996MZH
方向:NLP DeepLearning pytorch
北航自动化研究生
本博客仅为学习、备忘建立
不侵吞任何人的成果
展开
-
使用HuggingFace的Transformers库的学习笔记(pipeline实战+官方readme文件的解读)
https://github.com/huggingface/transformerstransformers主要包含以下这些类安装pip install transformers#并安装pytorch或tf2.0中的至少一个包含的模型结构BERT (from Google) released with the paper BERT: Pre-training of Deep Bidirectional Transformers for Language Understandi.原创 2020-06-29 20:56:11 · 13521 阅读 · 6 评论 -
TF学习笔记
tfimport tensorflow as tf#tf常量tf.constant('Hello, TensorFlow!')# Start tf sessionsess = tf.Session()#basic operationa = tf.constant(2)b = tf.constant(3)with tf.Session() as sess: print ("a: %i" % sess.run(a), "b: %i" % sess.run(b)) prin原创 2020-06-14 00:47:03 · 218 阅读 · 0 评论 -
PYTORCH保存训练好的模型
1.保存模型的dict#...XXXmodel = model(*args, **kwargs)torch.save(XXXmodel.state_dict(),'onlyDict.pkl'):读取dictpre_model = model(*args, **kwargs)pre_model.load_state_dict(torch.load('onlyDict.pkl'))2...原创 2019-05-26 17:35:33 · 1597 阅读 · 0 评论 -
Xgboost官方文档的解读(python)
Xgboost的官方文档在这里https://xgboost.readthedocs.io/en/latest/我们今天直接从代码部分开始学习见下图黑色圈内的部分首先来看XGBoost参数(黑圈里的第二行)在运行XGBoost之前,一定要设定好三类参数:一般参数:即我们使用什么基学习器模型(一般树?线性模型?)来构建boosting算法(这里没有boosting算法的同学请自己...原创 2019-05-13 11:34:41 · 4294 阅读 · 1 评论 -
pytorch常用产生参数方法
原创 2019-05-07 22:23:49 · 195 阅读 · 0 评论 -
Expected object of type torch.FloatTensor but found type torch.DoubleTensor for argument #4 'mat1'
pytorch常见错误原因是输入变量是double这时在输入后加一个“.float()”即可原创 2019-05-07 15:50:51 · 482 阅读 · 0 评论 -
pytorch报错cannot assign module before Module.__init__() call
cannot assign module before Module.init() call怀疑是没有在def init():后面加super(这里换成class的名称 self).init()原创 2019-05-07 14:51:22 · 12873 阅读 · 2 评论 -
对pandas的dataframe进行特征标准化/归一化?
本文经过学习https://blog.youkuaiyun.com/u011089523/article/details/80198312https://blog.youkuaiyun.com/hjxzb/article/details/78610961总结如何在pandas中对dataFrame进行特征标准化 归一化max-min标准化:X_新=(X_旧-X_min)/(X_max-X_min )#假设...原创 2019-05-07 10:05:55 · 38570 阅读 · 4 评论 -
总结PYTORCH中nn.lstm(自官方文档整理 包括参数、实例)
参考pytorch官方文档https://pytorch.org/docs/master/nn.html#torch.nn.LSTM先上原图| 这里是关键参数介绍input_size:输入特征的数目hidden_size:隐层的特征数目num_layers:这个是模型集成的LSTM的个数 记住这里是模型中有多少个LSTM摞起来 一般默认就1个bias:用不用偏置 默认是用bat...翻译 2019-05-06 20:14:54 · 10675 阅读 · 3 评论 -
深度学习模型输出为nan的一个隐蔽可能原因以及如何用pandas解决这个nan问题
之前搭深度学习模型时,遇到过一个很棘手的问题:我的模型由三部分组成,前两部分读取某些特征,第三部分(LSTM)读取另外一些特征当我写好代码开始训练时,预测输出很快就会变成[nan,nan,nan,…nan]上网查了很多相关资料,https://www.cnblogs.com/bonelee/p/8603750.html总结起来发现大概有这样几个原因:学习率选取不当激活函...原创 2019-05-08 15:28:49 · 12009 阅读 · 2 评论 -
python从某一行开始读取文本文件
f1=file('XXX.txt','r')for line in f1.readlines()[N:]: ......即为从第N行开始读取转载 2019-05-05 21:01:46 · 28056 阅读 · 7 评论 -
使用NLTK实现stemming(2)
from nltk.stem import WordNetLemmatizerlemmatizer = WordNetLemmatizer()lemmatizer.lemmatize('characters')输出character转载 2019-05-05 19:56:42 · 1643 阅读 · 0 评论 -
使用NLTK实现stemming
from nltk.stem.porter import PorterStemmerporter_stemmer = PorterStemmer()porter_stemmer.stem('films')输出为film转载 2019-05-05 19:40:28 · 2176 阅读 · 0 评论