1 内容概述
本文档主要内容:梳理TensorFlow模型在Jetson TX2上进行inference的主要流程,涉及到相关软件的安装、依赖库的编译配置以及PC端的深度网络模型在Jetson TX2的移植步骤。
2 开发环境
注意:PC端和Jetson TX2所使用的TensorRT安装包是不一样的,前者使用的是Tesla GPUs版本,而后者使用的是Jetson Platforms版本
2.1 PC端
1) Pycharm:Python程序的开发环境;
2) Python 3.5:
3) TensorFlow:数值计算的开源软件库,主要用于深度学习模型的搭建;
4) TensorRT Python API:在PC端使用TensorRT所需的Python库,以whl文件形式存在,存放在TensorRT安装包的python目录下;
5) UFF Python API:转换成uff