【阅读笔记】《Depth-Aware CNN for RGB-D Segmentation》(二)——代码部分(一)train.py

本文记录了博主阅读论文《Depth-Aware CNN for RGB-D Segmentation》代码的笔记的第一部分,train.py文件。更新于2019.03.21。

train.py文件

import部分

代码前3行调用的工具包的作用,见博客123

import time
from tensorboardX import SummaryWriter
from collections import OrderedDict

from options.train_options import TrainOptions

从第4行开始调用的就是内部的包了,调用的是文件./options/train_options.py

from options.train_options import TrainOptions

这里调用的TrainOptions中包括两部分,显示部分和训练部分。其中,显示部分包括的参数有:

  • display_freq:在屏幕上显示训练结果的频率;
  • print_freq:在控制台(console)上显示训练结果的频率;
  • save_latest_freq:保存最新结果的频率;
  • save_epoch_freq:在一个epoch最后保存checkpoints的频率;
  • no_html:不向[opt.checkpoints_dir]/[opt.name]/web/保存中间的训练结果;
  • debug:每次循环只进行一次epoch并显示。

训练部分包括的参数有:

  • loadfroms:从32s或16s处加载,继续训练;
  • continue_train:加载最新的模型继续训练;
  • use_softmax:除非指定用softmax loss,否则使用log-softmax;
  • phase:train,val,test等;
  • nepochs:epoch的个数(默认100);
  • iterSize:初始学习率下的迭代次数(默认10,博主认为文件中这个注释写错了);
  • maxbatchsize:最大batchsize,默认-1;
  • warmup_iters:初始学习率下的迭代次数;
  • beta1:adam算法的动量;
  • lr:adam算法的初始学习率;
  • lr_power:学习率政策的指数;
  • momentum:sgd算法的动量;
  • wd:sgd的权重下降(weight decay)。

from data.data_loader import CreateData

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值