- 博客(28)
- 收藏
- 关注
原创 Segformer模型的平台部署和项目应用
本章将前面的segfomer网络结构的学习和重构、segformer双显卡推理部署、算法平台开发、c#使用pythonnet调用python多进程项目、windows forms图形界面的开发,c++加cuda对模型推理加速的所有内容贯穿起来完成一个大型项目的整个开发起来。
2025-02-10 15:05:21
458
原创 Segformer双显卡推理速度测试
单显卡和双显卡同步并行推理平均耗时分别为。的并行推理耗时,单双显卡推理平均耗时为。的并行推理耗时,单双显卡推理平均耗时为。双显卡同步并行推理平均耗时分别为。双显卡速度明显比单显卡的速度快。
2024-09-26 17:00:42
352
原创 SegFormer网络结构的学习和重构
一、Segformer的网络结构图网络结构:主要由Transformer的编码器和轻量级的多层感知机(MLP)的解码器组成网络特点:1、结合了Transformers与轻量级的多层感知机(MLP)解码器。2、包含一个新颖的分层结构的Transformer编码器,该编码器输出多尺度特征。它不需要位置编码, 因此避免了位置编码的插值,这在测试分辨率与训练时不同的情况下可能会导致性能下降。3、避免使用复杂的解码器。
2024-09-24 15:45:12
1584
原创 如何提高训练的模型泛化能力
泛化能力模型对未知数据的预测能力,这个未见过的测试数据必须是和训练数据处于同一分布,不在同一分布的数据是不符合独立同分布假设的(对同一规律不同的数据集的预测能力)。通常通过测试误差来评价学习方法的泛化能力。
2024-09-24 10:45:16
595
原创 nn.LayerNorm()
一起来学习nn.BatchNorm2d()的原理normalized_shape:归一化的维度,int(最后一维)list(list里面的维度)eps:加在方差上的数字,避免分母为0elementwise_affine:bool,True的话会有一个默认的affine参数layernorm对单个batch进行归一化,在每个样本的每个特征维度上进行归一化,使得每个特征的均值为0,方差为1,从而有助于提高模型的训练效果和泛化能力。与 Batch Normalization (批归一化。
2024-09-24 09:34:44
550
原创 报错OSError: [WinError 126] 找不到指定的模块
原因:由于是在c#中利用pythonnet创建python环境去直接调用自己的自研算法平台,而算法平台中很多加速时用cuda和c++封装好的核函数来加速,c#环境中dll的依赖和路径不对都会导致该问题。异常记录:由于之前配置测试的时候没有随手进行截图和记录的习惯,导致严重缺少素材,现在再进行复现就很难了,哎,我要改掉这个毛病!解决:检查dll指定路径,将所有依赖拷入Debug中后一个一个删除查找是哪个依赖没有配置到环境配置中,该方法排除较慢,但准确。
2024-09-13 16:16:44
679
原创 c++dll库调用报错:access violation reading 0x000002239199F0E0
原因:本地extern "C" __declspec(dllexport) void inference(unsigned char* data, unsigned int width, unsigned int height, unsigned int cudaDevice, uchar * data_)的输入图片data 存在问题,重新转换输入图片的大小。异常记录:由于之前配置测试的时候没有随手进行截图和记录的习惯,导致严重缺少素材,现在再进行复现就很难了,哎,我要改掉这个毛病!
2024-09-13 16:08:51
254
原创 引发了未经处理的异常:读取访问权限冲突。this 是 nullptr。
异常记录:由于之前配置测试的时候没有随手进行截图和记录的习惯,导致严重缺少素材,现在再进行复现就很难了,哎,我要改掉这个毛病!原因:trt版本和当前电脑版本不一致,重新onnx转trt解决。异常位置:创建推理上下文为null。
2024-09-11 10:19:07
736
2
原创 pickle.dump与troch.dump的异同点
pickle对.pt、.onnx、.trt、.pth、.pth.tar、.pkl模型的支持
2024-04-02 09:28:13
361
1
原创 C#使用Pythonnet调用pthon程序之多进程创建方法及依赖问题处理
C#使用Pythonnet调用pthon程序之多进程创建方法及依赖问题处理
2024-01-31 13:27:37
2160
1
原创 DeeplabV3+解码器学习和优化
DeeplabV3+解码器复现(二)_卷积解码器设计-优快云博客一、DeeplabV3+解码器的原理# 解码器1:deeplabv3设计的解码器# 浅层语义处理卷积# 对深层语义做上采样# 对深浅语义堆叠后的语义做特征提取和通道数调整卷积# 3X3卷积做特征提取以及通道数调整nn.Dropout(0.5), # 防止过拟合,每个神经元有0。5可能性不被激活# 再次进行3x3卷积特征提取nn.Dropout(0.1), # 防止过拟合,每个神经元有0。1可能性不被激活。
2023-12-20 14:41:47
816
1
原创 F.interplate()
一、上采样1、input (Tensor) – 输入张量2、size (int or Tuple[int] or Tuple[int, int] or Tuple[int, int, int]) – 输出大小.3、scale_factor (float or Tuple[float]) – 指定输出为输入的多少倍数。如果输入为tuple,其也要制定为tuple类型。
2023-11-30 14:14:06
757
1
原创 Halcon实战项目--螺丝检测
因为太多的博客并没有深入理解,本文是自己学习后加入自己深入理解的总结记录,方便自己以后查看Halcon模板匹配、阈值分割、仿射变换的运用学习前言一起来学习Halcon做实战项目---螺丝检测
2023-10-16 09:05:03
2220
2
原创 nn.BatchNorm2d()
一起来学习nn.BatchNorm2d()的原理参考链接:BatchNorm2d这是什么层BatchNorm2d详解。
2023-10-13 09:26:18
661
原创 MobileNetV2: Inverted Residuals and Linear Bottlenecks论文(中文版)
一起来学习MobileNet-v2论文论文:《Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation》论文链接: https://arxiv.org/abs/1801.04381摘要在本文中,我们描述了一种新的移动架构MobileNetV2,它提高了移动模型在多个任务和基准测试以及不同模型大小范围内的最新性能。
2023-10-12 15:17:51
144
原创 MobileNet-v2
一起来学习MobileNet-v2的原理论文:《Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification, Detection and Segmentation》论文链接:https://arxiv.org/abs/1801.04381论文中文链接:前文链接:MobileNet-v1详解。
2023-10-12 14:55:51
79
原创 nn.Sequential()
使用:通过nn.Sequential()将卷积层,BN层和激活函数层封装在一个层中,输入x经过卷积、BN和ReLU后直接输出激活函数作用之后的结果。定义:一个序列容器,用于搭建神经网络的模块被按照被传入构造器的顺序添加到nn.Sequential()容器中。
2023-10-11 11:10:33
251
1
原创 将ipynb保存成pdf的简单解决方案
文件转为pdf文件的需求,是我在使用过程中产生的,在网上查找的解决方法都比较复杂且中文和图片的支持性都很差,在此记录该简单方法,也为其他有类似需求的读者提供参考。不需要安装pandoc和LaTeX,且中文和title图片支持不存在问题。1、在jupyter notebook中右击选择打印。2、再保存就结束了,是不是非常简单。
2023-10-10 11:54:35
1239
1
原创 霍夫变换(直线和圆)Hough Transform原理详解--Bing
霍夫变换运用两个坐标空间之间的变换,将在一个空间中具有相同形状的曲线或直线映射到另一个坐标空间的一个点上形成峰值,从而把检测任意形状的问题转化为统计峰值问题
2023-10-10 10:44:46
575
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人