TensorTR为什么能提升模型的运行速度
主要做了两件事情来提升模型的运行速度。
- TensorRT支持INT8和FP16的计算。深度学习网络在训练时,通常使用32位或16位数据。TensorRT则在网络的推理时选用不怎么高的精度,达到加速推断的目的。
- TensorRT对于网络结构进行了重构,把一些能够合并的运算合并在一起,针对GPU的特性做了优化。现在大多数深度学习框架是没有针对GPU做过性能优化的,而NVIDIA推出了针对自己GPU的加速工具TensorRT。一个深度学习模型,在没有优化的情况下,比如一个卷积层、一个偏置层和一个reload层,这三层三需要调用三次cuDNN对应的API,但实际上这三层的实现完全三可以合并到一起的,TensorRT会对一些可以合并网络进行合并。
718

被折叠的 条评论
为什么被折叠?



