
基本的网路结构
沙雅云
这个作者很懒,什么都没留下…
展开
-
神经网络的一些碎片知识
Hourglass网络(堆叠沙漏网络),首先进行卷积池化处理,并进行多次下采样操作,获得一些分辨率较低的特征,从而降低计算的复杂度,为了使图像特征的分辨率上升,紧接着多次上采样。上采样使得图像的分辨率增高,同时更有能力预测物体的准确位置。使用residual模块提取较高层次的特征,同时保持原有层次的信息,那么为什么上采样和下采样到同一种大小的特征图进行组合的时候,可以得到理想的效果呢?首...原创 2019-04-21 11:26:03 · 272 阅读 · 0 评论 -
神经网络中的数据增强
数据增强与过拟合验证是否过拟合的方法:如果训练集的loss持续减小,验证集的loss增大,那么就是过拟合了数据增强的目的数据增强实现数据更为复杂的表征,减小训练集与验证集以及最终测试集的差距,网络更好的学习迁移数据集上的数据分布。数据增强的方法1 数据变换增强包括几何变化换,色彩空间变换,随机擦除,对抗训练,神经风格迁移2 重采样增强侧重于新的实例的合成,图像混合,特征空间的增强,...转载 2019-08-05 11:26:02 · 4004 阅读 · 0 评论 -
转载]对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解
深度可分离卷积(depthwise separable convolution)在可分离卷积(separable convolution)中,通常将卷积操作拆分成多个步骤。而在神经网络中通常使用的就是深度可分离卷积(depthwise separable convolution)。举个例子,假设有一个3×3大小的卷积层,其输入通道为16、输出通道为32。那么一般的操作就是用32个3×3的卷...转载 2019-08-21 14:08:35 · 279 阅读 · 0 评论 -
重新梳理神经网络
卷积神经网络的结构介绍卷积核是一组随机初始化的数的序列每个神经元只需要在局部进行感知,然后在高层将局部信息综合起来就得到全局信息。所以局部感受野就能很好的降低参数。卷积的目的是为了提取特征,根据局部感受野一小块一小块的比对,在两幅图中大致相同的位置找到一些粗糙的特征进行匹配,相比那些整副图逐一比对的方式,CNN这种小块匹配方式更好的比较两幅图像之间的相似性。CNN的基本结构包含两个部分:特...原创 2019-09-05 15:41:10 · 322 阅读 · 0 评论