1.怎么把deploy 文件转成mxnet 能支持的op文件
2. 用mxnet 训练出来的精度为1 的model 对训练集进行预测出现的问题是 30% 的样本确识别错误了
目前val 集是0.54 20个epoch 跑完 训练的精度为1 但是val 的精度为0.55
训练的数据集是在原始的数据集上扩充得到的。测试的时候只在未扩充的样本上进行了预测 3.4w的样本量 大概错了8900 个 ,既然错了那么多,为什么精度还是会显示1那 原因在哪里
样本虽然扩增了 但是一定是对结果有正面的影响么?
用了早前的版本
3. 用多lable 训练的模型出来的结果很不好
4. 从log 画曲线要怎么画
5. 我现在分不出来是我的网络的问题-网络不够深 -为什么这么理解
因为我会把1-L 等 学习能力差
YY 说 在第一层卷积的时候 32-128 可能有助于结果的改善
6. 在水表上做实验。现在水表上把精度调上去,在说车牌识别的事
A。我的数据量不够大
B. 我输入的尺寸太小了
C. 我的网络不行
D. 我扩增样本的方式不对
我减去均值,但是我觉得跟不减去没有差啥。
是我自己的感觉么
wuxiang 的网络就是不减去均值的
不减均值可能有他的道理
只是我没有观察到
我的愿望是 loss 能下降到0.001 这样的
看了mnsit 的多任务,直接去掉卷积层,只有fc 层
精度也是挺高的。
把切割之后的好好训一下 正确能上99%
这个难度理论上比end-to-end 简单
我觉得自己早前的逻辑错了。我之前就应该猛调单个网络的结构
我其实很期待这些数据集
仔细想想要怎么减去均值 把背景给出去。应该是比较关键的事情。
因为黄牌和蓝色的牌子在我看来背景是比较单一
比较难训练的要loss 的权重要加大?
这次训练水表的cifar 跟之前训练单个的deploy文件不一样
在每个pool 后面加上一个norm2 LRN 层 不知道起什么作用 为了收敛?
水表的均值怎么减去?
在lch 的caffe 下面找到的
1万+

被折叠的 条评论
为什么被折叠?



