
CNN
bestrivern
热爱计算机视觉,机器学习,算法,编程,正在不断学习中
展开
-
Inception网络
一.概述1.Resnet的目的是为了将网络变得更深,而Inception系列的目的则是将网络加宽。2.构建CNN时,你要决定卷积核的大小,是1x3合适,还是3x3合适,还是5x5合适?要不要添加pooling层?Inception网络的优点,就是能代替你做决定。Inception在增加特征表达能力的同时减少计算。 模型更精巧复杂了,增加BN和gradient clipping去稳定训...原创 2019-03-04 15:58:35 · 360 阅读 · 0 评论 -
非极大值抑制(Non-Maximum Suppression,NMS)
一.概述非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。这个局部代表的是一个邻域,邻域有两个参数可变,一是邻域的维数,二是邻域的大小。这里不讨论通用的NMS算法(参考论文《Efficient Non-Maximum Suppression》对1维和2维数据的NMS实现),而是用于目标检测中提取分数最高的窗口的。...原创 2019-03-14 22:57:10 · 299 阅读 · 0 评论 -
全连接层(Fully Connected Layer)
一.概述全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。在卷积神经网络的最后,往往会出现一两层全连接层,全连接一般会把卷积输出的二维特征图转化成一维的一个向量。二.前向传播下图中连线最密集的2个地方就是全连接层,这很明显的可以看出全连接层的参数的确很多。在前向计算过程,也就是一个线性的加权求和的过程,全连接...原创 2019-04-25 21:33:17 · 20765 阅读 · 1 评论 -
反卷积详解
一.概述反卷积又称转秩卷积(Transposed Convolution),上采样(Upsampled )。其作用举例如下:1.当我们用神经网络生成图片的时候,经常需要将一些低分辨率的图片转换为高分辨率的图片。 2.在语义分割中,会使用卷积层在编码器中进行特征提取,然后在解码层中进行恢复为原先的尺寸,这样才可以对原来图像的每个...原创 2019-04-26 16:42:36 · 51335 阅读 · 17 评论