
CNN
文章平均质量分 92
阿猫的自拍
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
强化学习孕育出来的模型 - MnasNet和Efficientnet
论文标题:EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks文章表示:通过对模型的不同维度的平衡,深度,宽度还有分辨率进行平衡可以提高模型的准确性。文章是通过神经结构搜索的方法来实现的,并且通过这个方法得到了一系列的Efficientnets。从NASM开始 :提出一种资源约束的终端 CNN 模型的...原创 2019-12-20 14:38:56 · 534 阅读 · 0 评论 -
卷积层的反向传播
本文翻译于这篇文章,如果想看原文可以直接点击这篇文章。我是一篇好文章----- 前言卷积的过程其实是一个线性变化的过程:其实就y=wx+b的过程 文中提到了w的大小和x大小的关系,一般来说都是w比x小,卷积核一般都是3*3之类的。文中也提到了了解卷积的反向传播的过程要先链接基本的反向传播和链式法则。损失函数对卷积核参数的影响,是通过链式法则,不断的梯度相互乘积的结果,其中包括输入部分和梯度部分...原创 2019-10-07 21:46:53 · 5822 阅读 · 1 评论 -
卷积神经网络的感受野思考
在机器视觉领域的深度神经网络中有一个概念叫做感受野,用来表示网络内部的不同位置的神经元对原图像的感受范围的大小。神经元之所以无法对原始图像的所有信息进行感知,是因为在这些网络结构中普遍使用卷积层和pooling层,在层与层之间均为局部相连(通过sliding filter)。神经元感受野的值越大表示其能接触到的原始图像范围就越大,也意味着他可能蕴含更为全局、语义层次更高的特征;而值越小则表示其所包...原创 2019-10-08 21:07:30 · 201 阅读 · 0 评论 -
大家好我叫残差网络,是残差,是残差哦~~~
— ResNet v1与ResNet v2的区别def forward(self, x): residual = x out = self.conv1(x) out = self.bn1(out) out = self.relu(out) out = self.conv2(out) out = self.bn2(out) out = s...原创 2019-10-08 21:23:35 · 407 阅读 · 1 评论 -
Inception的个人总结
参考链接:参考链接1,机器之心的观点参考链接21.Inception模块:使用了 Inception 模块,它的目的是设计一种具有优良局部拓扑结构的网络,即对输入图像并行地执行多个卷积运算或池化操作,并将所有输出结果拼接为一个非常深的特征图。因为 11、33 或 5*5 等不同的卷积运算与池化操作可以获得输入图像的不同信息,并行处理这些运算并结合所有结果将获得更好的图像表征。这么看resn...原创 2019-10-09 00:10:35 · 528 阅读 · 0 评论 -
YOLOV2的损失函数分析-优图代码
1.注释写了:Computes region loss from darknet network output and target annotation.计算darknet network 的ouput的结果和目标标注。先假设我们的output的size是(2,125,13,13)这里不是瞎假设的,首先根据网络结构和论文一开始的图片划分,我们最终会有1313的featuremap, fea...原创 2019-10-09 23:26:38 · 4504 阅读 · 2 评论 -
从全连接层的变化看懂卷积神经网络的奥秘
鸡血文章 人生就是不断的探索的过程,最近个人意识越来越强,在这个意识的世界里,我们应该怎么做,那就是不断的探索,直到物理停止。为什么要谈全连接层,哎呀不是被换了吗这东西,哎呀老东西了,哎呀老老了人家都是1*1了,今天从什么是全连接层,全连接层的作用,以及如何实现全连接层,不同的实现的过程其实有不同的体现,然后就是全卷积网络。这是一个递推的过程。作用都是:如果说卷积层、池化层和激活函数层等...原创 2019-10-10 15:58:57 · 2084 阅读 · 2 评论