特征和深度学习的关系?
答:
至今为止特征没有万能和精确的定义。特征的精确定义往往由问题或者应用类型决定。特征是一个数字图像中“有趣”的部分,它是许多计算机图像分析算法的起点。因此一个算法是否成功往往由它使用和定义的特征决定。
因此特征提取最重要的一个特性是“可重复性”:同一场景的不同图像所提取的特征应该是相同的。
对于一张图片,我们人理解图像中的内容,其实就是根据图像的各个层级特征来理解的,如图像的低级特征、图像的中级特征、图像的高级特征。
那我们究竟要计算机学习什么东西?答案当然是图像特征了。
将一张图像看做是一个个像素值组成的矩阵,那么对图像的分析就是对矩阵的数字进行分析,而图像的特征,就隐藏在这些数字规律中。
深度学习对外推荐自己的一个很重要的点——深度学习能够自动提取特征,不需要人工设计。那么它是如何做到不需要人工设计特征检测和描述算子,而可以自动提取图像中各个层级特征并进行理解呢?
(利用大量的卷积核提取图像特征,并通过真值和预测值之间的差异,反向传播自动更新卷积核的参数大小。使得最终的卷积核,提取出来的特征,其映射的预测值,无比接近于图片的真值。卷积核的参数就是权重参数,需要不断更新(学习))
卷积神经网络中各层作用?
答:
卷积层:用它来进行特征提取
池化层:对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征
激活函数:是用来加入非线性因素的,因为线性模型的表达能力不够。RELU是对每个像素值进行非线性处理。
全连接层(fully connected layers,FC):在整个卷积神经网络中起到“分类器”的作用,全连接层将学到的“分布式特征表示”映射到样本标记的空间。
卷积层其实就是在spatial上部分连接,在channel上全连接的结构。因此如果舍弃在spatial上的部分连接,将卷积核换成1x1的,那么就只有在channel上全连接。这个时候卷积层=全连接层。
这就是为什么imagenet分类最后一层是pooling+fc。pooling完之后feature就1x1xC的了,这时候再做fc就是对channel进行全连接,把feature映射到label上
层顺序:BN -> conv -> 激活层
感受野:即特征图上的每个像素点能够映射到原始图像多大的区域。通过卷积层可以扩大感受野,越深层的特征图,其感受野越大。
卷积层提取特征的原理过程?反向传播的过程?
答:
一个图像矩阵经过一个卷积核的卷积操作后,得到了另一个矩阵,这个矩阵叫做特征映射(feature map)。
每一个卷积核都可以提取特定的特征,不同的卷积核提取不同的特征。
举个例子,现在我们输入一张人脸的图像,使用某一卷积核提取到眼睛的特征,