TensorRT加速的原因:量化+网络结构优化

本文介绍了TensorRT如何通过量化和网络结构优化提升AI模型在Nvidia设备上的性能。讲解了TensorRT的工作原理、CUDA/cuDNN背景以及TensorRT的工作流程,包括引擎构建和推理阶段的具体步骤。

1. TensorRT 简介

  • TensorRT可以帮助你把训练好的AI模型,部署到边端Nvidia的设备,并实现对模型的量化与加速。
  • TensorRT基于CUDA和cudnn

CUDA看作是一个工作台,上面配有很多工具,如锤子、螺丝刀等。

cuDNN是基于CUDA的深度学习GPU加速库,它就是个锤子。

CUDA这个工作台买来的时候,并没有送锤子。
想要在CUDA上运行深度神经网络,就要安装cuDNN,这样才能使GPU进行深度神经网络的工作,工作速度相较CPU快很多。
请添加图片描述

2. TensorRT 加速的原理

量化

TensorRT可以对模型进行int8,float16的量化,通过在**减少计算量 和 保持精度 **之间达到一个理想的平衡点。

网络结构优化

TensorRT同时对网络结构进行了重构和优化

  1. 通过解析模型,将网络中无用的输出层消除以减小计算。
  2. 对网络结构的垂直整合,举个例子,将CONV, BN, RELU 三个层融合在了一起。
  3. 对网络结构的水平整合。将输入为相同的张量 和执行 相同操作 的层融合在一起。
  4. CON
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值