本部分主要是机器学习的题目
1.神经网络训练时使用Dropout主要目的是什么? 训练和测试时使用的区别是什么
2.深度学习解决过拟合和欠拟合的策略都有哪些?
过拟合
Data Augmentation。人工增加训练集的大小. 通过平移, 翻转, 加噪声等方法从已有数据中创造出一批”新”的数据.
Regularization。数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大. 通过在Loss Function 后面加上正则项可以抑制过拟合的产生. 缺点是引入了一个需要手动调整的hyper-parameter.
Dropout
Batch Normalization
Unsupervised Pre-training. 用Auto-Encoder或者RBM的卷积形式一层一层地做无监督预训练, 最后加上分类层做有监督的Fine-Tuning.
Early Stop. 提前停止训练
适当添加pooling层能减轻过拟合
减少模型复杂度
欠拟合
3. CNN中1×1的卷积核有什么作用
4. 如何将Fully Connected layer转化为Fully Convolutional layer?
5. 比较vgg16, InceptionBN, Resnet-50网络训练计算量大小,并排序
6. 在Faster RCNN中,设计不同尺寸的anchors的目的
7.解释DCNN中bottleneck的作用
8. Inception v1, v2, v3, v4 不同点