最近看到一篇文章统计了2010-2016年被引用次数最多的深度学习论文,研究生期间的方向是物体检测,所以截取了领域相关的部分论文。个人认为物体检测又可以分为很多细节研究,任何一项细节只要找到痛点,提出可用的解决办法,就是一份很好的工作,包括:卷积神经网模型的理解(理论/网络结构);结构参数的行为分析(优化/正则化);在不同数据分布的表现。
一、理论/未来
1. 在神经网络中提取知识
Distilling the knowledge in a neuralnetwork
作者:G. Hintonet al.
2.深度神经网络很易受骗:高信度预测无法识别的图片
Deep neural networks are easily fooled:High confidence predictions for unrecognizable images
作者:A. Nguyenet al.
3. 深度神经网络特征的可迁移性如何?
How transferable are features in deepneural networks? (2014),
作者:J. Yosinskietal.
4.细节魔鬼的回归:深挖卷积网络
Return of the Devil in the Details: DelvingDeep into Convolutional Nets (2014)
作者:K. Chatfieldetal.
5. 为什么无监督预训练对深度学习有帮助?
Why does unsupervised pre-training helpdeep learning (2010)
作者:D. Erhan et al.(Bengio)
6. 理解训练深度前馈神经网络的难点
Understanding the difficulty of trainingdeep feedforward neural networks (2010)
作者:X. Glorot and Y.Bengio
二、优化/正则化
7. BatchNormalization 算法:通过减少内部协变量转化加速深度网络的训练
BatchN