曙光_deeplove
安徽霍邱人,长期从事遥感影像变化检测、机器学习、深度学习在图像分类、目标检测方面的应用工作
展开
-
多线程libtorch推理问题
介绍一下libtorch多线程的问题原创 2024-03-22 17:58:21 · 418 阅读 · 0 评论 -
libtorch c++输出接收方式
forward函数的输出,根据原始tracing的网络输出,对输出进行类别转换。这个函数在高版本上无法进行列表接收了。原创 2024-03-12 08:43:50 · 212 阅读 · 0 评论 -
sam和mobilesam导出onnx的问题
环境:python==3.10,torchvision==0.12.0+cu113 onnx==1.12.0 onnxruntime==1.13.1我们在mobilesam工程(sam工程一样的)导出onnx的时候默认出现:”ValueError: Unsupported ONNX opset version: 16“然后我们就按照一些资料,将opset降低到使用13,结果还是不行:”repeat_interleavefor idx, r_split in enumerate(r_splits):原创 2023-10-06 10:57:33 · 1208 阅读 · 0 评论 -
In-Place操作及onnx导出
out-of-place只是分配新对象并保留对旧计算图的引用,而in-place操作则需要将所有输入的创建更改为代表此操作的函数。out-of-place只是分配新对象并保留对旧计算图的引用,而 in-place 操作则需要将所有输入的创建更改为代表此操作的函数。这就是为什么我建议使用 PyTorch 标准的in-place 操作(如上面的in-place ReLU) ,而不是手动实现。就地操作:是直接更改给定Tensor的内容而不进行复制的操作,即不会为变量分配新的内存(不分配新的对象)。原创 2023-09-19 20:44:44 · 381 阅读 · 0 评论 -
使用TensorRT的一些没注意到的坑
使用TensorRT的一些没注意到的坑原创 2023-03-09 15:14:44 · 1138 阅读 · 0 评论 -
关于询问trt推理部分bug
关于询问trt推理部分bug原创 2023-01-29 17:49:40 · 669 阅读 · 0 评论 -
yolov8之导出onnx(二)
yolov8之导出onnx原创 2023-01-29 14:24:34 · 6452 阅读 · 7 评论 -
yolov8导出onnx(一)
yolov8导出onnx原创 2023-01-29 11:42:43 · 7468 阅读 · 3 评论 -
windows10配置openvino
windows10配置openvino原创 2022-12-07 22:00:53 · 793 阅读 · 0 评论 -
trt多流、多batch、多context
trt原创 2022-12-02 15:09:37 · 2087 阅读 · 0 评论 -
yolov5量化注意事项(二)
yolov5量化注意事项(二)原创 2022-12-02 09:40:33 · 2074 阅读 · 5 评论 -
yolov5量化注意事项
yolov5量化注意事项原创 2022-11-28 20:18:28 · 1785 阅读 · 7 评论 -
yolov5-seg(实例分割)的tensorRT部署
yolov5-seg(实例分割)的tensorRT部署原创 2022-10-17 09:26:08 · 2794 阅读 · 28 评论 -
yolov5-seg的ort部署
yolov5-seg的ort部署原创 2022-09-29 09:53:48 · 2249 阅读 · 11 评论 -
onnx如何在中间删除了一个节点,怎么样把剩下的节点连接一起呢
onnx原创 2022-09-16 22:49:44 · 1445 阅读 · 0 评论 -
torchscript相关知识介绍(二)
torchscript相关知识介绍(二)原创 2022-09-06 11:17:43 · 2293 阅读 · 0 评论 -
torchscript相关知识介绍(一)
torchscript相关知识介绍原创 2022-08-23 00:14:05 · 558 阅读 · 0 评论 -
关于trt 中的setworkspace函数的作用
关于trt 中的setworkspace函数的作用原创 2022-08-20 23:16:31 · 1650 阅读 · 2 评论 -
查阅trt engine
查询trt 计划文件原创 2022-08-15 14:15:50 · 1701 阅读 · 2 评论 -
TensorRT的插件实战(1)
trt 插件实战原创 2022-07-22 12:16:44 · 817 阅读 · 0 评论 -
TensorRT OSS 在linux环境下编译安装
trt oss编译安装原创 2022-07-21 15:06:34 · 1132 阅读 · 0 评论 -
yolov7导出可被trt解析的onnx
onnx、yolov7原创 2022-07-07 17:47:38 · 1602 阅读 · 6 评论 -
tensorrt部署YOLOv5模型记录【附代码,支持视频检测】
该转载涉及yolov5的视频检测转载 2022-06-08 08:59:32 · 2701 阅读 · 0 评论 -
编译器优化专题
编译器优化 -- 常量折叠原创 2022-05-03 15:54:16 · 221 阅读 · 0 评论 -
retinanet pytorch转换onnx Unsample 问题
retinanet pytorch转换onnx Unsample 问题 pytorch转onnx踩坑日记_贝猫说python的博客-优快云博客转载 2022-04-21 17:30:31 · 260 阅读 · 0 评论 -
onnx中的where op
onnx中的where op是pytorch中的什么操作产生的呢? 试了torch.where 以及 a[mask]等操作 都没有产生。 也没搜到。 想记录学习下 。答案:看下expand (我自己给的答案),我还没有验证原创 2022-04-21 09:22:00 · 2423 阅读 · 0 评论 -
randperm算子不支持导出onnx
问:想跟您请教下torch.randperm这个算子转onnx不支持应该怎么实现? 答复:可以先用 ONNX_FALLTHROUGH转成onnx,然后再给TensorRT写个plugin,转出来后也可以用ONNX-graphsurgeon把这个node展开成TRT支持的node(如果可以等效替换掉的话)。 注意:好像没法用TRT layer表示randperm:torch.randperm — PyTorch 1.11.0 documentation 有人也给了其他思路,比如:用rand原创 2022-04-21 09:13:53 · 1106 阅读 · 0 评论 -
模型推理时间与FPS的求取方法
比如你的模型推理一张图片的时间是50ms,那么计算fps的方式为:1000ms/50ms = 20fps注意:一定要使用ms单位!原创 2022-01-20 11:41:32 · 10290 阅读 · 0 评论