巧妙利用TFlearn训练自己的数据集(一)

本文介绍如何利用TFlearn的高级API训练个人收集的图像数据集。通过修改示例代码,如Alexnet,将原本用于Oxford17数据集的网络应用于自己的10分类图像数据。关键步骤包括替换数据、删除原有分类文件,以及注意图片尺寸和卷积核大小的调整。作者计划后续分享训练CIFAR10数据集网络的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本人研究方向为目标分类识别。

研究生阶段的研究创新点已经初具规模,老师要求多有对比实验。

利用其他经典网络来训练自己收集的图片训练集,是我想到比较直观的办法。TFlearn是Tensorflwo的一个高级API,里面有各种已经写好的网络代码示例,简单明了。(具体关于TFLearn的资料,大家自己去百度大笑

在TFlearn文件夹下examples/images/里面有许多图像分类的网络可用,但缺点是里面的网络用的数据Oxford17 ,Cifar10 , Mnist三大经典数据集,而且每个网络的数据导入函数又关联到其他函数,好不麻烦!!!


经过投机取巧的思考,如训练自己的数据集,解决方法如下:


以使用Oxford17数据集为代表的Alexnet为例:

Alexnet代码如下

from __future__ import division, print_function, absolute_import

import tflearn
from tflearn.layers.core import input_data, dropout, fully_connected
from tflearn.layers.conv import conv_2d, max_pool_2d
from tflearn.layers.normalization import local_response_normalization
from tflearn.layers.estimator import regression

import tflearn.datasets.oxflower17 as oxflower17
X, Y = oxflower17.load_data(one_hot=True, resize_pics=(227, 227)) ##此句调用了tflearn文件夹下dataset中oxflower17.py函数,
##此函数主要作用是下载Oxfords数据

# Building 'AlexNet'
network = input_data(shape=[None, 227, 227, 3])
network = conv_2d(network, 96, 11, strides=4, activation='relu')
network = max_pool_2d(network, 3, strides=2)
network = local_response_normalization(network)
network = conv_2d(network, 256, 5, activation='relu')
network = max_pool_2d(network, 3, strides=2)
network = local_response_normalization(network)
network = conv_2d(network, 384, 3, activation='relu')
network = conv_2d(network, 384, 3, activation='relu')
network = conv_2d(network, 256, 3, activation='relu')
network = max_pool_2d(network, 3, strides=2)
network = local_response_normalization(network)
network = fully_connected(network, 4096, activation='tanh')
network = dropout(network, 0.5)
network = fully_connected(network, 4096, activation='tanh')
network = dropout(network, 0.5)
network = fully_connected(network, 17, activation='softmax')
network = regression(network, optimizer='momentum',
                     loss='categorical_crossentropy',
                     learning_rate=0.001)

# Training
model = tflearn.DNN(network, checkpoint_path='model_alexnet',
                    max_checkpoints=1, tensorboard_verbose=2)
model.fit(X, Y, n_epoch=1000, validation_set=0.1, shuffle=True,
          show_metric=True, batch_size=64, snapshot_step=200,
          snapshot_epoch=False, run_id='alexnet_oxflowers17')
运行alexnet.py

python alexnet.py

开始下载.......下载完成后在当前目录下会生成一个17flowers文件夹

打开文件夹,分析里面的文件


其中jpg文件里面是17种花朵的图片,有17个子文件夹,每个文件夹代表一类; 17flowers.pkl是代码自动生成的一个分类文件 ; 17flowers.tgz是下载完成的压缩包。


分析完成后,我们开始替换自己的数据,比如说我们需要将50000张图片10分类,即在jpg文件夹下新建10个文件夹,每个文件夹下包含此类的图片,例如我的实验数据如下:

(我做的食物分类)

完成后,删除前面自动生成的 17flowers.pkl文件!!!!!(很重要)

删除之后,直接运行alexnet.py文件,即可开始训练自己的数据集!


需要注意的一点是:图片的尺寸问题!

1.可能你的图片和Alexnet自带测试集的图片尺寸不一样,需要reshape一下

2.卷积核大小问题,网络层与层之间的卷积核大小关系要正确,这需要一点深度学习的基础知识,大家自己学习。



等有时间,我会更新如何训练 以convnet_cifar10.py为代表的使用 CIFAR10 数据集的网络


本人初学者,有疏漏之处还需见谅

评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值