Tensorflow Object Detection API

本文档提供了详细的步骤说明如何从源码安装TensorFlow对象检测API,包括所需依赖库的安装、环境变量配置、protoc编译工具的安装及使用、proto文件编译过程以及最终的安装验证。
部署运行你感兴趣的模型镜像

1 首先下载源码

https://github.com/tensorflow/models

2 按照官方说明文档安装 依赖库:

Tensorflow Object Detection API depends on the following libraries:

Protobuf 2.6
Pillow 1.0
lxml
tf Slim (which is included in the “tensorflow/models” checkout)
Jupyter notebook
Matplotlib
Tensorflow

(一般地:直接安装anacnonda基本这些库都会有,不过要手动安装tensoflow)

3 配置环境变量

models/research/ 和 slim 目录需要添加进 PYTHONPATH:
d:\tensorflow\models\research
d:\tensorflow\models\research\slim
(斜体部分按照你放置models文件夹的盘符来定。)

4 安装protoc

我下载的版本是protoc-3.3.0-win32.zip,解压后将bin文件夹中的【protoc.exe】放到C:\Windows

5 编译proto模型(重点)

进入目录:**/models/research/
在命令行下执行下面命令,protobuf 2.6不再支持文件名通配符,吐一下血,建议做个.bat文件,批量执行下述命令,同时将–proto_path中指定的目录添加进PATH环境变量。

【D:\tensorflow\要换成你的电脑放置models文件夹的盘符位置】

protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\anchor_generator.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\argmax_matcher.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\bipartite_matcher.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\box_coder.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\box_predictor.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\eval.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\faster_rcnn.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\faster_rcnn_box_coder.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\grid_anchor_generator.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\hyperparams.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\image_resizer.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\input_reader.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\keypoint_box_coder.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\losses.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\matcher.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\mean_stddev_box_coder.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\model.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\optimizer.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\pipeline.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\post_processing.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\preprocessor.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\region_similarity_calculator.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\square_box_coder.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\ssd.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\ssd_anchor_generator.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\string_int_label_map.proto
protoc --proto_path=D:\tensorflow\models\research\  --python_out=. D:\tensorflow\models\research\object_detection\protos\train.proto

6 检测模型安装成功

在 object_detection/builders/目录下,cmd命令行运行
运行python model_builder_test.py,检测是否安装成功
这里写图片描述

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

TensorFlow Object Detection API 是一个开源项目,它提供了一系列基于 TensorFlow 的工具和库,用于实现目标检测任务。对于 macOS 系统,我们可以通过以下步骤来使用 TensorFlow Object Detection API: 1. 安装 TensorFlow:在 macOS 上安装 TensorFlow 是使用 TensorFlow Object Detection API 的前提。你可以通过 pip 命令进行安装,例如在终端中执行 `pip install tensorflow`。 2. 下载 TensorFlow Object Detection API:打开终端并导航到适合你的工作目录中,然后使用 git 命令来克隆 TensorFlow Object Detection API 的 GitHub 仓库,例如执行 `git clone https://github.com/tensorflow/models.git`。 3. 安装依赖项:进入克隆的模型目录中,找到 research 文件夹并进入。然后运行 `pip install -r object_detection/requirements.txt` 命令来安装所需的依赖项。 4. 下载预训练模型:在 TensorFlow Object Detection API 中,我们可以使用预训练的模型来进行目标检测。你可以从 TensorFlow Model Zoo 中下载适合你任务的模型,并将其解压到你的工作目录中。 5. 运行实例代码:在 research/object_detection 目录中,你可以找到一些示例代码,用于训练、评估和使用目标检测模型。可以通过阅读这些示例代码并根据自己的需求进行修改。例如,你可以使用 `python object_detection/builders/model_builder_tf2_test.py` 命令来运行一个模型的测试。 以上是在 macOS 上使用 TensorFlow Object Detection API 的基本步骤,你可以根据你的具体需求进行更多的深入研究和调整。希望这些信息能帮助到你!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值