语义分割中的一些参数设置及其意义
近期一直在研究深度学习中语义分割任务,现在想总结一下训练策略和参数的设置
1.FCN

在voc-fcn-alexnet中
| train_net: "train.prototxt" | |
| test_net: "val.prototxt" | |
| test_iter: 736 | |
| # make test net, but don't invoke it from the solver itself | |
| test_interval: 999999999 | |
| display: 20 | |
| average_loss: 20 | |
| lr_policy: "fixed" | |
| # lr for normalized softmax | |
| base_lr: 1e-4 | |
| # standard momentum | |
| momentum: 0.9 | |
| # gradient accumulation | |
| iter_size: 20 | |
| max_iter: 100000 | |
| weight_decay: 0.0005 | |
| snapshot: 4000 | |
| snapshot_prefix: "snapshot/train" | |
| test_initialization: false |
部分参数解释:
display: 20 每训练20次显示一次结果
lr_policy: "fixed" 意味着保持base_lr不变
snapshot: 4000 设置训练4000次保存一次
2.ERFnet
一共23层网络

因为源码被作者封了,所以调整了一下。
3 deeplab v3+

执行完一次全部的数据称为一个epochs。上面是在imagenet预训练的参数。
下面是在预训练之后的参数

4.mobile-segmentation


作者近期研究深度学习中语义分割任务,总结训练策略和参数设置。介绍了FCN中如display、lr_policy、snapshot等参数意义;提到ERFnet共23层网络且源码被封做了调整;还涉及deeplab v3+预训练前后参数及mobile - segmentation相关内容。
1056

被折叠的 条评论
为什么被折叠?



