
卷积神经网络
文章平均质量分 94
曉_寧
这个作者很懒,什么都没留下…
展开
-
VGG:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
论文地址:点击打开链接翻译地址:点击打开链接代码以及一些注释地址:点击打开链接网络模型图: 训练集预处理:1.S即裁剪后的图片长度有:256和384 ,选其中一个把短边压缩到s然后用是s*s的框随机裁剪2.s是裁剪后的图片长度在【256,512】之间,如果要裁剪的图片的长度不在范围内则进行裁剪,如果在范围内,则随机取一...原创 2018-05-04 00:38:30 · 986 阅读 · 0 评论 -
Deformable Convolutional Networks
论文地址:https://arxiv.org/abs/1703.06211翻译地址:https://www.jianshu.com/p/940d21c79aa3源码解读:https://blog.youkuaiyun.com/mykeylock/article/details/77746499?utm_source=blogkpcl11 Deformable Convolution Netwo...转载 2018-11-22 04:16:10 · 910 阅读 · 0 评论 -
Relation Networks for Object Detection
论文链接:https://arxiv.org/abs/1711.11575 代码链接:https://github.com/msracver/Relation-Networks-for-Object-Detection源代码讲解:https://blog.youkuaiyun.com/u014380165/article/details/80779712在介绍这篇论文之前首先介绍一下边框回归(ht...原创 2018-11-22 03:56:22 · 539 阅读 · 0 评论 -
协方差 、Gram矩阵和信息熵
协方差在机器学习中经常需要计算协方差矩阵,本科时没学过这个概念,一直对此非常头疼。现在试图通过实例的计算、图形化的表示来梳理一下什么是协方差矩阵。A numerical example问题:有一组数据(如下),分别为二维向量,这四个数据对应的协方差矩阵是多少?解答:由于数据是二维的,所以协方差矩阵是一个2*2的矩阵,矩阵的每个元素为:元素(i,j) = (第 i 维...原创 2018-11-05 17:21:54 · 5920 阅读 · 0 评论 -
Batch 、Batch_Size、weight decay、momentum、normalization和正则化的一些理解和借鉴
整理一下之前看过的内容,方便后面忘记时查询。谈谈深度学习中的 Batch_SizeBatch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。首先,为什么需要有 Batch_Size 这个参数?Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 (Full Batch Learning )的形式,这样做至少有 2 个好处:其一,...原创 2018-11-05 16:50:59 · 3038 阅读 · 0 评论 -
图像识别从Rcnn到Fast Rcnn 到Faster Rcnn
object detection我的理解,就是在给定的图片中精确找到物体所在位置,并标注出物体的类别。object detection要解决的问题就是物体在哪里,是什么这整个流程的问题。然而,这个问题可不是那么容易解决的,物体的尺寸变化范围很大,摆放物体的角度,姿态不定,而且可以出现在图片的任何地方,更何况物体还可以是多个类别。object detection技术的演进:RCNN->S...转载 2018-11-04 21:38:59 · 1490 阅读 · 0 评论 -
Deep Residual Learning For Image Recognition
论文地址: resnet 论文原文地址文献翻译地址:https://blog.youkuaiyun.com/Quincuntial/article/details/77263562?locationNum=6网络深度为何重要?因为CNN能够提取low/mid/high-level的特征,网络的层数越多,意味着能够提取到不同level的特征越丰富。 并且,越深的网络提取的特征越抽象,越具有语义信息...原创 2018-09-22 23:04:04 · 1094 阅读 · 0 评论 -
SSD:Single Shot MultiBox Detector
论文链接:https://arxiv.org/abs/1512.02325论文翻译链接:https://blog.youkuaiyun.com/quincuntial/article/details/78854930 本文提出的SSD算法是一种直接预测目标类别和bounding box的多目标检测算法。与faster rcnn相比,该算法没有生成 proposal 的过程,这就极大提高了检测速度...原创 2018-09-24 23:23:18 · 8522 阅读 · 0 评论 -
Going Deeper with Convolutions -GoogLeNet
GoogleNet到目前为止一共四个版本,论文下载地址:【v1】Going Deeper with Convolutions【v2】Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift【v3】Rethinking the Inception Archite...原创 2018-08-09 01:17:57 · 416 阅读 · 0 评论 -
tensorflow卷积实现原理以及自己手写过程
从一个通道的图片进行卷积生成新的单通道图的过程很容易理解,对于多个通道卷积后生成多个通道的图理解起来有点抽象。本文以通俗易懂的方式讲述卷积,并辅以图片解释,能快速理解卷积的实现原理。最后手写python代码实现卷积过程,让Tensorflow卷积在我们面前不再是黑箱子!注意:本文只针对batch_size=1,padding='SAME',stride=[1,1,1,1]进行实验和解释,其他如果不...转载 2018-05-07 21:23:31 · 5331 阅读 · 2 评论 -
长文揭秘图像处理和卷积神经网络架构
引言先坦白地说,有一段时间我无法真正理解深度学习。我查看相关研究论文和文章,感觉深度学习异常复杂。我尝试去理解神经网络及其变体,但依然感到困难。接着有一天,我决定一步一步,从基础开始。我把技术操作的步骤分解开来,并手动执行这些步骤(和计算),直到我理解它们如何工作。这相当费时,且令人紧张,但是结果非凡。现在,我不仅对深度学习有了全面的理解转载 2018-05-04 17:40:49 · 755 阅读 · 0 评论 -
AffinityPropagation ap聚类
AP聚类一般翻译为近邻传播聚类,07年被提出,其优点有: 不需要制定最终聚类族的个数 已有的数据点作为最终的聚类中心,而不是新生成一个族中心。 模型对数据的初始值不敏感。 对初始相似度矩阵数据的对称性没有要求。 相比与k-centers聚类方法,其结果的平方差误差较小。首先简要介绍一下AP算法,跟其他聚类算法的不同之处是,AP在开始时,将所有节点都看成潜在的聚类中心,然后通过...原创 2018-05-09 23:09:45 · 950 阅读 · 0 评论 -
alexnet 模型详解以及模型的可视化
Alex在2012年提出的alexnet网络结构模型引爆了神经网络的应用热潮,并赢得了2012届图像识别大赛的冠军,使得CNN成为在图像分类上的核心算法模型。接下来本文对该网络配置结构中各个层进行详细的解读(训练阶段):注:下述关于卷积核的尺寸来自于Alex在2012年发表的经典论文。1.conv1阶段DFD(data flow diagram):第一层输入数据为...转载 2018-05-11 01:21:30 · 9574 阅读 · 0 评论 -
Dropout
论文:https://arxiv.org/abs/1207.0580博客代码:https://blog.youkuaiyun.com/l494926429/article/details/51943564 一个师兄在找工作面试过程中碰到手写dropout算法,写个博客学习并记录一下Bagging基于自助采样算法: 给定包含m个样本的数据集D,我们对它进行采样产生数据集D’:每次随机从D...原创 2018-11-22 04:30:36 · 406 阅读 · 0 评论