caffe简易上手指南(二)—— 训练我们自己的数据
续之前的教程,下面我们尝试使用别人定义好的网络,来训练我们自己的网络。
1、准备数据
首先很重要的一点,我们需要准备若干种不同类型的图片进行分类。这里我选择从ImageNet上下载了3个分类的图片(Cat,Dog,Fish)。
图片需要分两批:训练集(train)、测试集(test),一般训练集与测试集的比例大概是5:1以上,此外每个分类的图片也不能太少,我这里每个分类大概选了5000张训练图+1000张测试图。
找好图片以后,需要准备以下文件:
words.txt:分类序号与分类对应关系(注意:要从0开始标注)
0 cat
1 dog
2 fish
train.txt:标明训练图片路径及其对应分类,路径和分类序号直接用空格分隔,最好随机打乱一下图片
/opt/caffe/examples/my_simple_image/data/cat_train/n02123045_4416.JPEG 0
/opt/caffe/examples/my_simple_image/data/cat_train/n02123045_3568.JPEG 0
/opt/caffe/examples/my_simple_image/data/fish_train/n02512053_4451.JPEG 2
/opt/caffe/examples/my_simple_image/data/cat_train/n02123045_3179.JPEG 0
/opt/caffe/examples/my_simple_image/data/cat_train/n02123045_6956.JPEG 0
/opt/caffe/examples/my_simple_image/data/cat_train/n02123045_10143.JPEG 0
…
val.txt:标明测试图片路径及其对应分类
/opt/caffe/examples/my_simple_image/data/dog_val/n02084071_12307.JPEG 1
/opt/caffe/examples/my_simple_image/data/dog_val/n02084071_10619.JPEG 1
/opt/caffe/examples/my_simple_image/data/cat_val/n02123045_13360.JPEG 0
/opt/caffe/examples/my_simple_image/data/cat_val/n02123045_13060.JPEG 0
/opt/caffe/examples/my_simple_image/data/cat_val/n02123045_11859.JPEG 0
…
2、生成lmdb文件
lmdb是caffe使用的一种输入数据格式,相当于我们把图片及其分类重新整合一下,变成一个数据库输给caffe训练。
这里我们使用caffenet的create_imagenet.sh文件修改,主要是重新指定一下路径:
EXAMPLE=examples/my_simple_image/
DATA=examples/my_simple_image/data/
TOOLS=build/tools
TRAIN_DATA_ROOT=/
VAL_DATA_ROOT=/
这里我们打开resize,需要把所有图片尺寸统一
RESIZE=true
if $RESIZE; then
RESIZE_HEIGHT=256
RESIZE_WIDTH=256
else
RESIZE_HEIGHT=0
RESIZE_WIDTH=0
fi
…
echo “Creating train lmdb…”
GLOG_logtostderr=1 KaTeX parse error: Expected 'EOF', got '\ ' at position 24: …nvert_imageset \̲ ̲ --resize_he…RESIZE_HEIGHT
–resize_width=$RESIZE_WIDTH
–shuffle
$TRAIN_DATA_ROOT
$DATA/train.txt
$EXAMPLE/ilsvrc12_train_lmdb #生成的lmdb路径
echo “Creating val lmdb…”
GLOG_logtostderr=1 KaTeX parse error: Expected 'EOF', got '\ ' at position 24: …nvert_imageset \̲ ̲ --resize_he…RESIZE_HEIGHT
–resize_width=$RESIZE_WIDTH
–shuffle
$VAL_DATA_ROOT
$DATA/val.txt
$EXAMPLE/ilsvrc12_val_lmdb #生成的lmdb路径
echo “Done.”
3、生成mean_file
下面我们用lmdb生成mean_file,用于训练(具体做啥用的我还没研究。。。)
这里也是用imagenet例子的脚本:
EXAMPLE=examples/my_simple_image
DATA=examples/my_simple_image
TOOLS=build/tools
$TOOLS/compute_image_mean $EXAMPLE/ilsvrc12_train_lmdb $DATA/imagenet_mean.binaryproto
echo “Done.”
4、修改solver、train_val配置文件
这里我们可以选用cifar的网络,也可以用imagenet的网络,不过后者的网络结构更复杂一些,为了学习,我们就用cifar的网络来改。
把cifar的两个配置文件拷过来:
cifar10_quick_solver.prototxt
cifar10_quick_train_test.prototxt
首先修改cifar10_quick_train_test.prototxt的路径以及输出层数量(标注出黑体的部分):
name: “CIFAR10_quick”
layer {
name: “cifar”
type: “Data”
top: “data”
top: “label”
include {
phase: TRAIN
}
transform_param {
mean_file: “examples/my_simple_image/imagenet_mean.binaryproto”
}
data_param {
source: “examples/my_simple_image/ilsvrc12_train_lmdb”
batch_size: 50 #一次训练的图片数量,一般指定50也够了
backend: LMDB
}
}
layer {
name: “cifar”
type: “Data”
top: “data”
top: “label”
include {
phase: TEST
}
transform_param {
mean_file: “examples/my_simple_image/imagenet_mean.binaryproto”
}
data_param {
source: “examples/my_simple_image/ilsvrc12_val_lmdb”
batch_size: 50 #一次训练的图片数量
backend: LMDB
}
}
…
layer {
name: “ip2”
type: “InnerProduct”
bottom: “ip1”
top: “ip2”
…
inner_product_param {
num_output: 3 #输出层数量,就是你要分类的个数
weight_filler {
type: “gaussian”
std: 0.1
}
bias_filler {
type: “constant”
}
}
}
…
cifar10_quick_solver.prototxt的修改根据自己的实际需要:
net: “examples/my_simple_image/cifar/cifar10_quick_train_test.prototxt” #网络文件路径
test_iter: 20 #测试执行的迭代次数
test_interval: 10 #迭代多少次进行测试
base_lr: 0.001 #迭代速率,这里我们改小了一个数量级,因为数据比较少
momentum: 0.9
weight_decay: 0.004
lr_policy: “fixed” #采用固定学习速率的模式display: 1 #迭代几次就显示一下信息,这里我为了及时跟踪效果,改成1
max_iter: 4000 #最大迭代次数
snapshot: 1000 #迭代多少次生成一次快照
snapshot_prefix: “examples/my_simple_image/cifar/cifar10_quick” #快照路径和前缀
solver_mode: CPU #CPU或者GPU
5、开始训练
运行下面的命令,开始训练(为了方便可以做成脚本)
./build/tools/caffe train --solver=examples/my_simple_image/cifar/cifar10_quick_solver.prototxt
6、小技巧
网络的配置和训练其实有一些小技巧。
- 训练过程中,正确率时高时低是很正常的现象,但是总体上是要下降的
- 观察loss值的趋势,如果迭代几次以后一直在增大,最后变成nan,那就是发散了,需要考虑减小训练速率,或者是调整其他参数
- 数据不能太少,如果太少的话很容易发散