部署
部署
kui9702
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
ncnn初探
1、训练代码 # 训练我家小喵咪nora的照片 # 用的是yolov5 v6.1版本的ghost网络-->/models/hub/yolov5s-ghost.yaml # 训练请自己百度哈哈 2、导出onnx #在yolov5修改export.py,导出onnx模型,修改要添加模型为训练模式 即model.train() 3、onnx转换为onnx-sim # 安装onnx-simplifer pip install onnx-simplifer python -m onnxsim yolov5原创 2022-05-12 15:41:56 · 1873 阅读 · 0 评论 -
wsl2 安装指南
先给ubuntu 20.04安装一个gui界面 这边采用的是远程连接 参考连接https://zhuanlan.zhihu.com/p/149501381 先给ubuntu更新密码 我的是第一次安装,所以直接设置新密码即可 root@KILE:~# passwd New password: Retype new password: passwd: password updated successfully 输入2次密码即可 如果忘记了 请自行百度 安装所需的两个文件包 $ sudo apt .原创 2021-12-07 09:57:48 · 321 阅读 · 0 评论 -
Jni调用so动态库
linux JNI调用so库(只是单纯记录步骤) GenerateHeader $JDKPath$\bin\javah -classpath $OutputPath$ -d ./jni $FileClass$ $ProjectFileDir$ 先写java测试用例 public class JniTest { static { //这个加载绝对路径动态库 System.load("/home/mozhe/java_c/jni/jniSurf/JniTest.so原创 2021-06-15 17:27:17 · 2204 阅读 · 2 评论 -
tensorrt_python_api 加速推理
TensorRT 前言 TensorRT是nvidia官方开源的加速推理框架,适用于流行的深度学习框架:pytorch、tensorflow、Caffe等。TensorRT(下面简称trt)需要与nvidia提供的显卡一起使用,没有nvidia的cuda无法使用。 提高部署推理的方法有2种,一种是训练过程中需要进行优化加速的,比如模型压缩、模型剪枝、量化、知识蒸馏,另外一种是训练完成后通过优化计算图结构,比如torch script、tf lite、trt、onnx等。 本章根据上一章的内容原创 2022-03-18 00:11:18 · 2150 阅读 · 6 评论 -
ncnn_pnnx初探
1、训练代码 # 训练我家小喵咪nora的照片 # 用的是yolov5 v6.1版本的ghost网络-->/models/hub/yolov5s-ghost.yaml # 训练请自己百度哈哈 2、导出torchscript #在yolov5修改export.py,导出torchscript模型,修改要添加模型为训练模式 即model.train() 3、下载pnnx或者自己编译pnnx 这里我在window下测试了,一个是直接下载编译好的pnnx.exe,另外一个是下载官网源码,参考:https原创 2022-05-12 15:43:18 · 1335 阅读 · 0 评论 -
升级gcc8.2.0 新增降级为gcc4.8.5
升级GCC以及GLIBC版本 gcc升级到8.2.0 # 下载网址为 https://ftp.gnu.org/gnu # 安装wget(已经是root) yum install wget -y # 安装make [root@localhost root]# cd /home [root@localhost home]# mkdir make [root@localhost make]# wget https://ftp.gnu.org/gnu/make/make-4.3.tar.gz [root@lo原创 2021-07-17 12:21:29 · 1567 阅读 · 0 评论 -
tensorrt centos linux 安装
TensorRT 安装TensorRT: https://developer.nvidia.cn/nvidia-tensorrt-download tensorrt下载网址 下载并解压tar.gz [root@localhost data]# tar -zvxf TensorRT-8.4.0.6.Linux.x86_64-gnu.cuda-11.6.cudnn8.3.tar.gz 在/etc/profile加入环境变量 [root@localhost python]# vim /etc/pr原创 2022-03-17 22:57:05 · 2630 阅读 · 0 评论 -
tesnortt_c++
tensorrt_c++_api 加速推理 上一篇写了tensorrt python 加速,这一篇是关于c++版本的加速,但是由于在预处理没有找到c++ PIL的实现,在精度上复现不了python版本,并且速度也没有python的快,但是将模型做成服务的话,由于python的并发没有c++版本的快,所以在部署时还是使用c++更合适 #pragma once #include <iostream> #include <fstream> #include <sstream>原创 2022-03-27 22:17:00 · 1923 阅读 · 0 评论
分享