Jetson nano上部署自己的Yolov5模型(TensorRT加速)
背景在主机上训练自己的Yolov5模型,转为TensorRT模型并部署到Jetson Nano上,用DeepStream运行。硬件环境:RTX 2080TI主机Jetson Nano 4G B01软件环境:Jetson Nano:Ubuntu 18.04Jetpack 4.5.1DeepStream 5.1主机:Ubuntu 18.04CUDA 10.2yolov5 5.0训练模型(主机上)yolov5项目链接https://github.com/
原创
2021-04-30 14:06:19 ·
32391 阅读 ·
81 评论