
神经网络
MtoIronman
这个作者很懒,什么都没留下…
展开
-
深度学习常用激活函数之— Sigmoid & ReLU & Softmax
1. 激活函数Rectified Linear Unit(ReLU) - 用于隐层神经元输出Sigmoid - 用于隐层神经元输出Softmax - 用于多分类神经网络输出Linear - 用于回归神经网络输出(或二分类问题) ReLU函数计算如下: Sigmoid函数计算如下: ...转载 2018-03-13 17:32:01 · 898 阅读 · 0 评论 -
CNN调优总结
转自:https://nmarkou.blogspot.com.cy/2017/02/the-black-magic-of-deep-learning-tips.html记得要 shuffle。不要让你的网络通过完全相同的 minibatch,如果框架允许,在每个 epoch 都 shuffle 一次。扩展数据集。DNN 需要大量的数据,而且模型在小的数据集上很容易过拟合。我强烈建议你要扩展原始的...转载 2018-05-08 16:38:06 · 1430 阅读 · 0 评论