复现Faster-Rcnn+自己的数据集

配置环境:Win10+TF+python3.5

 

1、代码:https://github.com/dBeker/Faster-RCNN-TensorFlow-Python3.5

 

2、安装python依赖库(cython, python-opencv, easydict)

 

注意还是要在TensorFlow虚拟环境下安装
activate tensorflow

 

pip install cython

 

pip install python-opencv

 

pip install easydict

 

3、在cmd中使用cd命令到解压后的文件夹下../data/coco/PythonAPI目录下,执行以下代码:
cd C:\Users\master\Downloads\Faster-RCNN-TensorFlow-Python3.5-master\Faster-RCNN-TensorFlow-Python3.5-master\data\coco\PythonAPI

 

python setup.py build_ext --inplace

 

python setup.py build_ext install

 

Go to ./lib/utils and run python setup.py build_ext --inplace

 


4、下载VOC2007格式的数据集

 

http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtrainval_06-Nov-2007.tar
http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtest_06-Nov-2007.tar
http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCdevkit_08-Jun-2007.tar

 


将下载后的三个压缩包解压到同一个文件夹下,以WinRAR为例,同时选中三个压缩包,右键,然后选择解压到当前文件夹

 

5、下载预训练的VGG16网络模型:
这样,VGG16网络模型的地址应该类似于这样:../data/imagenet_weights/vgg16.ckpt

 

6、训练模型 train.py

 


训练40000次,得到结果

 

7、模型训练结束后,在 ..\default\voc_2007_trainval\default目录下可以看到训练的模型

 

8、运行demo,在运行demo.py前在编辑器中对demo.py作些更改

 

tfmodel = os.path.join('output', demonet, DATASETS[dataset][0], 'default', NETS[demonet][0])

 

这句代码指向训练模型结果,但实际是不存在的,需要我们新建文件夹,并且拷贝上一步生成的模型到该文件夹下,为简化,直接把这句代码替换成自己的路径即可,例如:
tfmodel=r'D:\FasterRCNN\output\vgg16\voc_2007_trainval\default\vgg16_faster_rcnn_iter_40000.ckpt'

 

注意后缀是ckpt,关于tensorflow生成的ckpt模型,大家可以自行查阅相关的参考资料,这里简单介绍一下,ckpt模型实际包含三个部分,ckpt.meta保存graph结构,ckpt.index是一个string-string table,ckpt.data保存模型的所有变量值

 

另外,下面的代码中,--net输入参数默认改成vgg16,--dataset输入参数默认改成pascal_voc
def parse_args():
    """Parse input arguments."""
    parser = argparse.ArgumentParser(description='Tensorflow Faster R-CNN demo')
    parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16 res101]',
                        choices=NETS.keys(), default='res101')
    parser.add_argument('--dataset', dest='dataset', help='Trained dataset [pascal_voc pascal_voc_0712]',
                        choices=DATASETS.keys(), default='pascal_voc_0712')
    args = parser.parse_args()

 

    return args

 

改成下面这样:
def parse_args():
    """Parse input arguments."""
    parser = argparse.ArgumentParser(description='Tensorflow Faster R-CNN demo')
    parser.add_argument('--net', dest='demo_net', help='Network to use [vgg16 res101]',
                        choices=NETS.keys(), default='vgg16')
    parser.add_argument('--dataset', dest='dataset', help='Trained dataset [pascal_voc pascal_voc_0712]',
                        choices=DATASETS.keys(), default='pascal_voc')
    args = parser.parse_args()

 

    return args

 

然后,就可以运行了,执行代码:
python demo.py

 

 

 


9、替换自己的数据集:首先将自己的数据集制作成VOC2007的格式

 

10、在...\Faster-RCNN\data目录下,检查是否有个叫cache的文件夹,每次在训练模型前,建议清空这个文件夹里面的东西

 

11、在...\Faster-RCNN\lib\config目录下,有个config.py文件,可以设置一些参数,比如learning_rate、max_iters、batch_size、step_size等等,这个可以根据自己需求改。比如,显卡性能一般的话,可以适当降低batch_size,觉得默认设置的max_iters迭代次数不够的话,可以改成七万等。

 

12、在...\Faster-RCNN\lib\datasets目录下,有pascal_voc.py文件,这个是必须要更改的,代码中 self._classes要来指定识别的类别,如下所示

 

 self._classes = ('__background__',  # always index 0
                         'aeroplane', 'bicycle', 'bird', 'boat',
                         'bottle', 'bus', 'car', 'cat', 'chair',
                         'cow', 'diningtable', 'dog', 'horse',
                         'motorbike', 'person', 'pottedplant',
                         'sheep', 'sofa', 'train', 'tvmonitor')

 

这里需要替换成我们自己的,例如,我做这个深度学习是为了识别和提取大坝要素,因此,我替换成了下面这样

 

self._classes = ('__background__','feng')

 

其中,background是需要我们保留的。

 

13、这样,就可以直接使用train.py训练自己的模型了。

 

14、测试模型:
主要更改内容有以下:

 

1)在...\Faster-RCNN\data\demo目录下,将demo文件夹下的图片换成自己要识别的图片。

 

2)在demo.py代码的开头,同样使用了classes指定了识别的类别,默认和pascal_voc.py中是一样的,这里同样需要更改成自己的类别,例如我更改成了:
CLASSES = ('__background__','feng')

 

3)这样,就可以使用demo.py直接识别demo文件夹中包含的图片了。

结束

主要参考:
https://blog.youkuaiyun.com/tuoyakan9097/article/details/82528245

https://blog.youkuaiyun.com/tuoyakan9097/article/details/81782257

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值