tensorflow
cyf19940808
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
[tensorflow 入门] MNIST 入门
tensorflow 入门 MNIST 入门原创 2017-08-10 16:50:20 · 427 阅读 · 0 评论 -
[tensorflow 入门]ReLU 与MNIST卷积
ReLU为什么引入非线性激励函数?如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。 正因为上面的原因,我们决定引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性组合,可以逼近任意函数)原创 2017-08-11 10:48:30 · 972 阅读 · 0 评论
分享