深度学习
文章平均质量分 87
Liubinxiao
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习面试问题总结
第一部分:深度学习1、神经网络基础问题(1)BP,Back-propagation(要能推倒)后向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导。这里重点强调:要将参数进行随机初始化而不是全部置0,否则所有隐层的数值都会与输入相关,这称为对称失效。 大致过程是:...原创 2018-05-01 23:59:56 · 2810 阅读 · 0 评论 -
keras实现常用深度学习模型LeNet,AlexNet,ZFNet,VGGNet,GoogleNet,Resnet
LeNet#coding=utf-8 from keras.models import Sequential from keras.layers import Dense,Flatten from keras.layers.convolutional import Conv2D,MaxPooling2D from keras.utils.np_utils import to_categorical...转载 2018-06-15 11:54:37 · 481 阅读 · 0 评论
分享