
tensorrt
文章平均质量分 66
orangezs
这个作者很懒,什么都没留下…
展开
-
[ubuntu]-ubuntu20.04简单两步安装cuda11.0 + tensorrt7.2.1,自动配置cudnn
1.介绍及配置说明只需两步简单配置tensorrt,采用cuda(deb) + trt(deb) 安装方式,无需配置cudnn,会在trt安装过程中自动配置。ubuntu20.04gtx16502.注意trt官网只更新到了支持ubuntu18.04,但是经博主尝试发现ubuntu18.04的版本是可以在ubuntu20.04上应用的。默认大家已经安装了cuda驱动哦。各位可以输入指令nvidia-smi,如果可以得到输出,说明本机有驱动,否则请自行下载驱动。注意cudadriver版本原创 2021-05-11 11:04:41 · 3186 阅读 · 1 评论 -
[笔记]--tensorrt及神经网络常用的.wts权重格式解析
介绍.wts是一种可解释性文本对于一个例子 lenet5.wts 来说,这里我们展示他的一部分。10conv1.weight 150 be40ee1b bd20bab8 bdc4bc53 .......conv1.bias 6 bd327058 .......conv2.weight 2400 3c6f2220 3c693090 ......conv2.bias 16 bd183967 bcb1ac8a .......fc1.weight 48000 3c162c20 bd25196a ..原创 2021-05-11 19:15:30 · 2024 阅读 · 0 评论 -
[模型加速]-从一个简单的例子letnet demo来看我们如何使用tensorRT来实现DL网络加速(附demo代码)
参考大神github地址本项目演示demo地址letnet_trt1.在pytorch中运行letnet5开始之前请确保正确的安装了pytorch依赖1.1 克隆本博客演示代码,并进入letnetPy文件git clone https://github.com/python-faker/csdn_examplecd csdn_example/tensorrtExample/lenetPy1.2 运行lenet5.py文件通过pytorch生成lenet5.pth权重文件,具体的lene原创 2021-05-11 16:01:46 · 687 阅读 · 2 评论 -
[模型压缩/加速]-tensorrt使用简介,tensorrt为什么这么快?为什么可以实现对模型的加速?
资源惯例先放资源1.官方的tensorrt文档2.tensorrt官方主页3.tensorrt支持的操作1.为什么需要模型加速模型加速越来越成为深度学习工程中的刚需了,最近的CVPR和ICLR会议中,模型的压缩和剪枝是受到的关注越来越多。毕竟所有的算法想要产生经济效益一定要考虑落地的情况,可能我们看很多论文提出的方法或者说github公布的代码大多关注精度及python环境下的FPS,但在实际的工程用在考虑精度的同时,速度也是十分重要的,且更多的公司越来越青睐python 训练,C++重写推原创 2021-05-14 20:57:22 · 3605 阅读 · 0 评论