这里经过老师的提醒经历了很多“事故”
并且对代码进行了修改和整合
总结了出现的各种问题并进行解决
首先是没有完全纯净的测试样本
这个问题解决了之后
发现使用增强样本对iou的提升并没有料想中的好
于是这里直接返璞归真
先不使用增强样本
靠其他手段尽力提高iou
不进行增强后
并且将训练和测试样本划分为7.5:2.5
每隔5次输出权重,得到测试iou最高的一次权重
测试结果如下
这样看来结果稳定在70多%
并且对iou较低的进行了筛选
确实样本因素是导致iou结果低的首要问题
如果先不看样本因素
能否优化我们的训练和测试来尝试得到更好的结果呢
于是用这篇时隔多日的博文来展示一下我艰苦的尝试
训练样本的优化尝试
- 对原始样本图片进行边缘扩充补全
- 切割为512大小
- 膨胀预测算法
截止到10.12日上面的三个步骤已经全部完成
可以将原大小的原图放入一个文件夹里
最后生成相同大小的预测图片
这里的膨胀预测算法非常好用
感谢这微博主的代码!
经过修改后可以进行批处理
并且适用于我们自己的深度学习算法
语义分割之膨胀预测
大家可以查看一下这篇文章
进行一下修改
我的代码就不粘贴了
改格式太麻烦
但这里还需要做的就是赋予生成的预测图片地理坐标
也许后期可以做个封装
把代码弄成一个流程
这样就方便多啦
这里使用这个膨胀预测方法预测的6060*6060大小的图片
iou特别低
因此做个尝试
- 将6060大小的图片经过膨胀裁剪成512之后直接计算iou,不拼接回6060
- 使用mmseg里面的iou计算一下我的预测样本
直接把要预测的图片裁成512大小,预测后计算iou
结果比之前的6060直接计算iou会低一些,应该是预测会差一点
把膨胀预测之后的图片裁成512大小,计算iou
裁剪之后预测高了点。。。而且预测速度非常快
确实是比6060的计算出来高一点
看来裁剪出来计算效果好点