TensorRT运行TensorFlow和Python的TensorRT“ Hello World” 踩坑记录

本文介绍如何使用TensorRT进行模型推理,包括TensorFlow模型的训练、转换为UFF格式及最终的推理过程。通过解决一系列常见问题,如命令未找到、文件缺失等,帮助读者顺利搭建起TensorRT推理环境。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

安装tensorRT之后,官网有很多小的sample,也就是使用的案例,可以按照教程运行一下这些案例来入门如何使用tensorRT。我再使用其自带的sample时,发现也有一些小问题,这里记录一下运行的过程和遇到的一些问题以及解决方法。

环境:

docker中的Ubuntu18.04(虽然是容器,但是这里使用的操作和普通机器也没有区别,使用普通机器的也可以参考)
conda 10.0.130.
tensorRT6.0.15-cuda10.0
tensorflow-gpu 1.14

1.首先是sample的介绍

https://docs.nvidia.com/deeplearning/tensorrt/archives/tensorrt-601/tensorrt-sample-support-guide/index.html
我安装的是tensorRT6.0.1.5,这里是官网6.0.1的sample介绍。官网介绍上说使用tnsorRT时 “网络可以直接从NVCaffe导入,也可以通过UFF或ONNX格式从其他框架导入。也可以通过实例化各个图层并直接设置参数和权重,使用C ++或Python API以编程方式创建它们。”

我的理解是,一般会将各种框架如tensorflow训练得到的模型存储处理后,转换为tensorRT规定的几种格式,然后将转换后的文件使用tensorRT解析推理。这些案例就是各种不同的导入文件,不同框架的使用的sample,可以用它来学习如何使用tensorRT。
这里我打算用tensorflow使用tensorrt,因此选择的sample是26,一个使用tensorflow训练的小网络,从训练模型到存储模型,到转换存储文件再使用tensorRT推理的sample。

“Hello World” For TensorRT Using TensorFlow And Python end_to_end_tensorflow_mnist An end-to-end sample that trains a model in TensorFlow and Keras, freezes the model and writes it to a protobuf file, converts it to UFF, and finally runs inference using TensorRT.

点击跳转名字到介绍

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值