引言
在掌握了GPU的底层编程范式后,我们进入一个更高层次的抽象:使用NVIDIA TensorRT™,一个专为深度学习推理而设计的高性能SDK。TensorRT并非一个深度学习框架,而是一个优化器和运行时。它接收来自主流框架(如PyTorch, TensorFlow)的模型,对其进行一系列复杂的、针对特定硬件的优化,并生成一个轻量级、低延迟、高吞吐的推理引擎。本章将带您走通一个完整的、标准的TensorRT工作流程,这是将任何模型投入生产环境部署的必经之路。
2.1 TensorRT核心组件与流程
2.1.1 Builder, Engine, ExecutionContext
原理简介
TensorRT的API设计哲学是将模型的**构建时(Build-Time)和运行时(Run-Time)**清晰地分离开来。这对应了三个核心的API对象:
-
IBuilder (构建器)
-
角色: 模型的“编译器”。
-
职责: 接收一个网络定义(
INetworkDefinition),结合一个详细的构建配置(IBuilderConfig),执行TensorRT的全部优化过程,包括算子融合、精度校准、内核自动
-
订阅专栏 解锁全文
35

被折叠的 条评论
为什么被折叠?



