
CNN
天才狂想者
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
SSD边框预测原理
在ssd检测中,有一个重要的功能就是物体框的回归,接下来我来说一下ssd是怎么进行边界框回归的。 首先上图 我们观察图中狗的边框,其中黑色的是真实框(预先人为标定的),红色的为预测框(ssd最后预测的结果),黄色的为先验框(形成预测框的,首先得到的框)。 通俗的来说一下,我们经过6层不同大小的featmap后,会有很多的候选框,论文中一个类别有8732个,我们选取与真实框IOU最大的...原创 2019-12-22 11:56:35 · 2373 阅读 · 0 评论 -
SSD主干网络(基于vgg16)
在这里我们来说一说,基于vgg16的ssd的整体网络结。 首先,先来说一遍vgg16。如图,在图中D列就是今天要说的vgg16结构。 如图,下图为vgg16的结构示意。 简单的来说一下, 第一个肯定是输入(图片),224*224*3指的是图片的分辨率是224*224,通道数是3。 到了block1处,卷积核为3*3*3,有64个这样子的卷积核。3*3*3是因为对一个通道有3*3...原创 2019-12-15 22:52:36 · 4174 阅读 · 1 评论 -
vgg理解
Vgg16这个名词对于要做神经网络深度学习的人来说一定不陌生,当我们在看相关的教程或者案例的时候,都会出现Vgg16。那么它到底是什么? Vgg16是一个卷积神经网络的模型,它是一个被预训练好的模型。 Vgg模型(网上配图) 每次网上都是贴出这个网络模型结构就不了了之,我就来仔细说一下(个人理解,欢迎指出错误)。首先这个网络...原创 2019-10-12 16:50:32 · 3716 阅读 · 2 评论 -
CNN理解(一)
之前说过了DNN,大家也对神经网络有了一个大概的了解,知道了什么叫做前向传播,什么叫做反向传播。我们可以类比的进行卷积(CNN)的学习。 首先,回想一下DNN全连接神经网络的前向传播。 可以看到,在DNN中,每一层的参数(输入层)或者计算结果(中间层)都会直接传给下一层的所有神经元,如此反复,直到最后一层的输出层得到结果。 而CNN呢? 他也是和DNN一样,每一层的参数(输入层)或者计...原创 2019-05-23 12:09:16 · 990 阅读 · 0 评论 -
CNN理解(二)
前面说完了CNN前向传播,这里我就说一下CNN反向传播。 CNN有卷积层、池化层 前面说完了CNN前向传播,这里我就说一下CNN反向传播。 CNN有卷积层和池化层。首先我们要明白我们反向传播是为了谁。类比于DNN中,我们反向传播是为了神经元中的权重w和偏置b。而我们在CNN中就是为了卷积层中的卷积核。 已知池化层的,求前一层的。 这个比较简单,我们知道池化层的作用是将传入的参数降低规模传...原创 2019-06-12 11:54:51 · 213 阅读 · 0 评论