
视觉盛宴
文章平均质量分 75
linlinlinle
Born in QUST and HHU
展开
-
Batch Normalization
总体把握内部协变量转移(internal covariate shift):由于前面网络层的参数发生改变,导致每层网络的输入分布在训练中会发生变化.由于分布变化所以要求较低的学习率和仔细的参数初始化,这造成有饱和非线性模型的模型训练非常困难.内部协变量转移 白化 平移缩放归一化值白化(whitened)目的:修正层输入的均值和方差,减少梯度对参数或者初始值的依赖,允许使用较高学习...原创 2018-10-10 16:57:42 · 876 阅读 · 0 评论 -
SSR-Net(Soft Stagewise Regression Network)
摘要1.受DEX启发: 将年龄预测回归问题变为多分类问题 2.由粗到细策略,每个阶段执行部分年龄分类,任务量少(Stagewise):每个阶段预测类别少,产生更小参数和更紧凑的模型 3.解决量化年龄问题,引入动态范围,让每个bin可以平移和缩放(Soft ):允许bin根据输入来进行平移和缩放 4.模型大小可以达到0.32M损失函数在训练时,最小化平均误差函数,这里,年龄预测...原创 2018-09-25 11:44:38 · 8985 阅读 · 2 评论 -
Multi-Task CNN
同时实习人脸检测与人脸对齐; 级联结构,三阶段卷积网络,由粗到细的预测人脸候选框和关键点位置数据预处理对图像进行多尺度的resize,构成图像金字塔,顶端金字塔最小应该大于12 * 12。这样网络的输入尺寸虽然固定,但是可以处理不同尺寸的人脸。训练集构建由于网络同时执行人脸检测和对齐,因此在这里我们在训练过程中使用四种不同的数据类型:Positives:与ground trut...原创 2018-10-15 15:40:50 · 1293 阅读 · 0 评论 -
Residual Net
去掉相同的主体部分,从而突出微小的变化,我们明确地将这些层重新定义为根据参考层的输入来学习残差函数,而不是学习无参考的函数问题提出learning better networks as easy as stacking more layers?第一个问题:梯度消失/爆炸 解决方案:标准初始化,中间层标准化 网络退化问题:随着网络深度增加,准确度变饱和,迅速退化,本文引出残差网络解决...原创 2018-10-16 10:56:15 · 384 阅读 · 0 评论 -
You Only Look Once
将目标检测作为回归问题,整张图作为网络的输入,将物体检测与分类合到一起,整张图作为输入,输出为回归bounding box的位置信息和其所属的类别DPM:使用滑动窗口,对每个分区进行分类 RCNN:具有复杂的管道而且是缓慢和难以优化,因为每个组件必须单独训练基本思路将图片分为S*S的区域,此处不是RCNN那样对每个区域进行分类,而是进过CNN后,得到S*S个像素点的特征图 每个网格...原创 2018-10-16 11:32:08 · 173 阅读 · 0 评论