
卷积神经网络
Dontla
这个作者很懒,什么都没留下…
展开
-
平移不变性:Translation Invariance 与 平移同变性:Translation equivariance
在欧几里得几何中,平移是一种几何变换,表示把一幅图像或一个空间中的每一个点在相同方向移动相同距离。比如对图像分类任务来说,图像中的目标不管被移动到图片的哪个位置,得到的结果(标签)应该是相同的,这就是卷积神经网络中的平移不变性。平移不变性意味着系统产生完全相同的响应(输出),不管它的输入是如何平移的 。平移同变性(translation equivariance)意味着系统在不同位置的工作原理相...原创 2020-02-03 12:48:20 · 4640 阅读 · 0 评论 -
深度学习中不变性是什么?平移不变性Translation Invariance、旋转/视角不变性Ratation/Viewpoint Invariance、尺度不变性Size、Illumination
文章目录不变性定义不变性分类为什么卷积神经网络具有平移不变性不变性定义意味着即使目标的外观发生了某种变化,但是你依然可以把它识别出来。这对图像分类来说是一种很好的特性,因为我们希望图像中目标无论是被平移,被旋转,还是被缩放,甚至是不同的光照条件、视角,都可以被成功地识别出来。不变性分类平移不变性:Translation Invariance旋转/视角不变性:Ratation/Viewp...原创 2020-02-03 12:43:58 · 6272 阅读 · 3 评论 -
卷积神经网络 卷积的概念
1 卷积的定义共同特征:原创 2020-01-19 23:01:12 · 428 阅读 · 0 评论 -
卷积神经网络 全连接层(稠密层)是什么?(全连接层就是每一个结点都与上一层的所有结点相连的网络层)
对 n-1 层和 n 层而言,n-1 层的任意一个节点,都和第 n 层所有节点有连接(即第n层节点都和第n-1层节点相连接)。即第n层的每个节点在进行计算的时候,激活函数的输入是n-1层所有节点的加权。符合这种特征的卷积网络层,被称为全连接层。像下面的中间层就是全连接方式参考文章:卷积神经网络中的 “全连接层”...原创 2020-01-18 17:30:20 · 4928 阅读 · 0 评论 -
卷积神经网络 池化层上采样(upsampling、interpolating)、下采样(subsampled、downsampled)是什么?(上采样为放大图像或图像插值、下采样为缩小图像)
缩小图像:或称为下采样(subsampled)或降采样(downsampled)主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。放大图像:或称为上采样(upsampling)或图像插值(interpolating)主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。对图像的缩放操作并不能带来更多关于该图像的信息, 因此图像的质量将不可避免地受到影响。然而,...原创 2020-01-18 16:56:18 · 2948 阅读 · 0 评论 -
卷积神经网络CNNs 为什么要用relu作为激活函数?
relu激活函数的优势:(1)反向传播时,可以避免梯度消失。(2)Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。(3)相对于sigmoid激活函数,tanh激活函数,求导简单。采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对...原创 2020-01-18 15:36:52 · 7850 阅读 · 0 评论