- 博客(35)
- 收藏
- 关注
原创 SpringBoot学习笔记——核心配置
Springboot配置1. 全局yml,properties文件 application.yml:1.写yml文件2. 在类中配置属性,@Component @ConfigurationProperties(prefix=“emp”)3. @autowired2. 局部配置 emp.yml/properties1. 配置注入时加一行 @PropertySource(value=“...
2019-12-22 02:56:45
171
原创 tf.function和auto_graph
一个函数def scaled_elu(z, scale=1.0, alpha=1.0): # z >= 0 ? scale * z : scale * alpha * tf.nn.elu(z) is_positive = tf.greater_equal(z, 0.0) return scale * tf.where(is_positive, z, alpha * ...
2019-11-07 13:36:07
712
原创 简易BERT代码详细说明
数据预处理''' code by Tae Hwan Jung(Jeff Jung) @graykode Reference : https://github.com/jadore801120/attention-is-all-you-need-pytorch https://github.com/JayParks/transformer, https://gi...
2019-07-29 09:45:11
716
原创 eclipse学习
快捷键 内容辅助键 Alt+/ 自动补齐main方法 main 然后 Alt+/ 自动补齐输出语句 syso 然后 Alt+/ 格式化Ctrl+Shift+f 代码区域右键 – Source – Format 自动导包: Ctrl+Shift+o 如果当前类在多个包中都存在,这时候,使用Ctrl+shift+o,进行选择一个包导入即可。 注释 单行注释...
2019-07-28 20:28:12
144
原创 word2vec
import loggingimport gensimfrom gensim.models import word2vec#"../data/preProcess/wordEmbdiing.txt"sentences = word2vec.LineSentence("test_data")model = gensim.models.Word2Vec(sentences,size=50,...
2019-04-22 00:46:33
108
转载 transformer调研
1.关于序列建模,是时候抛弃RNN和LSTM了2.放弃幻想,全面拥抱Transformer:自然语言处理三大特征抽取器(CNN/RNN/TF)比较3.BERT大火却不懂Transformer?读这一篇就够了4.Harvard NLP The Annotated Transformer 学习之代码...
2019-03-29 19:51:21
174
原创 tf-idf简介
维基百科TF-IDF1. tf (term frequency):比如说有n个文本tn, 文中有很多词,所有文本构成了语料库。 tf(t,d)表示t中出现d词的一个程度量。有多种选择,最简单的可以为这个词在这个文本出现次数,或直接出现则设为1,或除以这个文本总词数以归一化2. idf (inverse document frequency):每个词的idf值在整个语料库中一样(每个词的tf...
2019-02-23 16:16:47
480
转载 NGRAM算法总结
自然语言处理中的N-Gram模型详解1. 距离公式:s字符串2分词后长度 + t字符串2分词后长度 - 公共长度8 + 9 − 2 × 4 = 92. 评估语句是否合理(完形填空)...
2019-02-23 13:51:46
3440
转载 FeatureUnionExt
from sklearn.pipeline import FeatureUnion, _fit_one_transformer, _fit_transform_one, _transform_one from sklearn.externals.joblib import Parallel, delayedfrom scipy import sparseimport numpy as np...
2019-02-10 20:38:12
274
原创 LSTM程序练习
# coding: utf-8# In[1]:import pandas as pdimport numpy as npimport tensorflow as tfimport matplotlib.pyplot as pltfrom sklearn.preprocessing import MinMaxScaler# In[2]:path = "F:/Anacond...
2018-12-31 01:55:58
1248
1
转载 softmax笔记
对tf.nn.softmax的理解举个例子:假设你的WX=[1,2,3],那么经过softmax层后就会得到[0.09,0.24,0.67],这三个数字表示这个样本属于第1,2,3类的概率分别是0.09,0.24,0.67。取概率最大的0.24,所以这里得到的预测值就是第二类。...
2018-12-18 15:07:16
187
原创 tensorflow错误汇总
Can not convert a int into a Tensor or Operation.:_,err,acc = sess.run([train_op,loss,acc],feed_dict={x:x_train_a,y_:labels_train_a})acc,acc重复了NAN错误loss:忘加了if os.path.isdir(path+x):而文件夹中有oriF:/ec...
2018-12-13 05:49:12
247
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人