1 内容概述
本文档主要内容:梳理TensorFlow模型在Jetson TX2上进行inference的主要流程,涉及到相关软件的安装、依赖库的编译配置以及PC端的深度网络模型在Jetson TX2的移植步骤。
2 开发环境
注意:PC端和Jetson TX2所使用的TensorRT安装包是不一样的,前者使用的是Tesla GPUs版本,而后者使用的是Jetson Platforms版本
2.1 PC端
1) Pycharm:Python程序的开发环境;
2) Python 3.5:
3) TensorFlow:数值计算的开源软件库,主要用于深度学习模型的搭建;
4) TensorRT Python API:在PC端使用TensorRT所需的Python库,以whl文件形式存在,存放在TensorRT安装包的python目录下;
5) UFF Python API:转换成uff

本文详细介绍了如何将TensorFlow模型移植到Jetson TX2进行inference,包括PC端的模型训练与保存、pb转uff文件,以及Jetson TX2上的TensorRT构建和执行。主要涉及TensorFlow、Jetson TX2、TensorRT的相关配置和步骤。
最低0.47元/天 解锁文章
2万+

被折叠的 条评论
为什么被折叠?



