- 博客(6)
- 资源 (10)
- 收藏
- 关注
原创 deplab V1、V2、V3
背景知识:CNN随着深度增加位置信息会减少。 全连接层缺点1、位置信息 2、输入图片大小限制 3、权重太多(易过拟合);全卷积(解决降采样分辨率过低) v1 1、空算法 2、crf优化 fcn 后面3个层改全卷积;反卷积上采样32 。问题:压到 1./32再上采样,信息丢失太多(边界难识别)。所以,fcn结合了前面的层的信息,孔算法从另外角度解决,即一下子不压缩到那么小,例如压缩到1/8...
2020-04-06 14:04:58
320
原创 反向传播、卷积、反卷积一些要点
假设s这里误差单位1,到达,z 1(3),error is δ 1(3) =1 ,因为最后一个神经元没有非线性变换。 到达a1(2), error is δ 1(3)*w12 越过神经元maps z12 to a12,δ 1(2) = w1(2)* σ一撇(z1 (2)) 卷积的一些要点: 输入32*32*3,参数个数:5*5(模板)* 3(前一通道厚度)=...
2020-04-05 23:29:00
350
原创 信息熵、决策树一些要点
左半圆圈,X的信息熵,右半圆,Y的信息熵 H(X,Y) - H (X) 得到X给定的熵H(y/X) h(x,y)联合熵 H(x)+ h(y) - h(x,y) = 中间小块 I(x,y) 即互信息 - H(y/x)+H(y)=I(x,y) H(y/x)=H(y)-I(x,y) 补充概率知识:熵的由来 p(x,y)=p(x)*p(y) x、y独立 把乘积变加和,取log...
2020-04-05 18:09:56
360
原创 gan 的要点 (弱点与改进、推土距离)
1、如何度量两个分布的相似度 kl散度,分布的对数差异的数学期望(两个分布在所有取值上的加权平均)。 2、极大似然估计可以看作最小化模型分布的kl散度距离等价。 使得对数似然函数最大>等价转换(引入负号)>引入常数项>相除形式>kl散度定义 3 、kl散度作为损失函数的模式塌陷问题:因为p(x)为其中一个分布的加权,所以不具有对称性,假设p(x) q(x)一个为...
2020-04-04 21:02:48
741
原创 深度学习reid中的要点与技巧(含样本不平衡)
1、采用多分支任务增强特征表达,例如一个分支基于softmax loss做分类,另一个分支基于triplet loss做 reid。 repnet 属性分支:颜色和车型分类器;triplet loss 属性分支 分支融合:乘积、减、拼接concat(大量使用) 凡是用了deep ranking triple loss 这个技术一定要注意:不要重头训练,通常需要训练基本CNN 网络,例如先训练...
2020-04-04 15:41:23
1004
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人