
预处理
少年初心
少年心气:
初心小爬的成长学习路.
今天比昨天的自己更好了吗?
All is well.努力 上进 规律.
展开
-
[深度学习]训练神经网路——深度调参
文章目录激活函数使用sigmoid-tanh-ReLU( ReLU,LeakyReLU,ELU ) - MaxOut<类似relu以及诡异华中参数学习.>建议数据预处理(Data Preprocessing)权重初始化权重初始化研究——所有层激活输出,随着层数越深,激活数值越趋向于零tanh()和ReLU()激活权重初始化方法<相应的论文给出了方法>更多适合的权重初始化研究...原创 2019-12-10 20:32:48 · 487 阅读 · 0 评论 -
嵌入层(Embedding Layer)与词向量(Word Embedding)详解
文章目录常见的语言表示模型词向量与Embedding区分Embedding层——keras中的one-hot映射为 向量的层;词向量(word embedding)——一种语言模型表示方法分布式表示(distributed representation)word2vec[More-类似查表操作,区别 W和词向量](https://spaces.ac.cn/archives/4122)More-mo...原创 2019-12-03 21:08:50 · 12347 阅读 · 0 评论