- 博客(6)
- 资源 (10)
- 收藏
- 关注
原创 deplab V1、V2、V3
背景知识:CNN随着深度增加位置信息会减少。全连接层缺点1、位置信息 2、输入图片大小限制 3、权重太多(易过拟合);全卷积(解决降采样分辨率过低)v1 1、空算法 2、crf优化fcn 后面3个层改全卷积;反卷积上采样32 。问题:压到 1./32再上采样,信息丢失太多(边界难识别)。所以,fcn结合了前面的层的信息,孔算法从另外角度解决,即一下子不压缩到那么小,例如压缩到1/8...
2020-04-06 14:04:58
328
原创 反向传播、卷积、反卷积一些要点
假设s这里误差单位1,到达,z 1(3),error is δ 1(3) =1 ,因为最后一个神经元没有非线性变换。到达a1(2), error is δ 1(3)*w12越过神经元maps z12 to a12,δ 1(2) = w1(2)* σ一撇(z1 (2))卷积的一些要点:输入32*32*3,参数个数:5*5(模板)* 3(前一通道厚度)=...
2020-04-05 23:29:00
359
原创 信息熵、决策树一些要点
左半圆圈,X的信息熵,右半圆,Y的信息熵H(X,Y) - H (X) 得到X给定的熵H(y/X)h(x,y)联合熵H(x)+ h(y) - h(x,y) = 中间小块 I(x,y) 即互信息- H(y/x)+H(y)=I(x,y)H(y/x)=H(y)-I(x,y)补充概率知识:熵的由来p(x,y)=p(x)*p(y) x、y独立把乘积变加和,取log...
2020-04-05 18:09:56
366
原创 gan 的要点 (弱点与改进、推土距离)
1、如何度量两个分布的相似度kl散度,分布的对数差异的数学期望(两个分布在所有取值上的加权平均)。2、极大似然估计可以看作最小化模型分布的kl散度距离等价。使得对数似然函数最大>等价转换(引入负号)>引入常数项>相除形式>kl散度定义3 、kl散度作为损失函数的模式塌陷问题:因为p(x)为其中一个分布的加权,所以不具有对称性,假设p(x) q(x)一个为...
2020-04-04 21:02:48
753
原创 深度学习reid中的要点与技巧(含样本不平衡)
1、采用多分支任务增强特征表达,例如一个分支基于softmax loss做分类,另一个分支基于triplet loss做 reid。repnet 属性分支:颜色和车型分类器;triplet loss 属性分支分支融合:乘积、减、拼接concat(大量使用)凡是用了deep ranking triple loss 这个技术一定要注意:不要重头训练,通常需要训练基本CNN 网络,例如先训练...
2020-04-04 15:41:23
1022
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人