- 博客(84)
- 收藏
- 关注
原创 车道线拟合
几何特征:根据斑马线和车道线的几何形状特征(如长度、方向、间隔)进行聚类,区分它们。密度差异:使用DBSCAN等基于密度的算法,将高密度点簇(斑马线)与低密度点簇(车道线)区分开来。颜色特征:基于颜色和亮度信息进行聚类,进一步过滤掉斑马线。空间分布:通过聚类分析车道线和斑马线在空间上的分布,过滤掉在十字路口或人行横道附近出现的短暂线段(斑马线)。深度学习结合聚类:通过深度学习提取特征,再通过聚类对车道线和斑马线进行分组。
2024-09-26 20:00:45
645
原创 第四章节-30-从数组到指针
是数组指针的标准访问方式,等效于数组的下标访问操作符。这种方式的好处是它可以直接访问指针所指向的数组中的元素,非常简洁和直观。
2024-08-14 00:06:39
992
原创 第四章节-29-数组的引入
指针数组:是一个数组,每个元素都是指向某个变量的指针。例如是一个包含3个int类型指针的数组。你可以将多个变量的地址存储在这个数组中,并通过它们访问这些变量。数组指针:是一个指向数组的指针。它不是数组,而是一个指向数组的指针。例如是一个指向包含3个int类型元素的数组的指针。你可以通过这个指针访问整个数组的元素。它们的主要区别在于用途和存储的信息:指针数组存储多个指针,每个指针可以指向不同的内存地址,而数组指针则指向一个完整的数组。数组对象是一个左值:这意味着你可以通过下标直接访问和修改数组的元素。
2024-08-09 01:05:56
772
原创 第四章节-28--数组--Vector -字符串
在C++中,数组的名称实际上是指向数组第一个元素的指针,但是数组本身并不是一个可赋值的对象(如类对象)。数组的长度和内存布局在定义时就已经确定,因此不能简单地通过。这个空字符非常重要,因为它告诉程序哪里是字符串的结束,而不仅仅是数组中的最后一个字符。操作符在C++中处理的是赋值而不是拷贝,这种直接赋值在编译时是不合法的。在C++中,数组的初始化行为在函数内部和全局域的确是不同的。编译器会将其解释为一个字符数组,并在数组的末尾自动添加一个空字符。返回一个指针,指向分配的这块内存的第一个字节(即第一个。
2024-08-08 23:44:10
741
原创 实习-文档
你的描述提出了一种高效的污垢检测方法,适用于低功耗嵌入式系统。该方法通过回归每个tile内污垢类型的覆盖面积,而不是对每个像素进行分类,从而提高了效率和处理能力。这种方法能够处理tile中的多种污染类型,适应粗糙的多边形标注,并且比传统的分割方法更快。通过集成到多任务模型中,可以同时进行目标检测和污垢检测,提高了系统的整体性能。Baseline 方案: 简单易实现,适合初步实验和验证。: 提供更精确的距离信息,适合需要高精度判断的应用场景。结合 OD 和 Lane 的检出结果。
2024-08-06 21:10:26
914
原创 深蓝C++ 第三章节补充
是一个常见的类型别名,用于表示对象大小的无符号整数类型。引入类型别名有助于代码的可读性和维护性。当引入类型别名时,指针类型被视为整体。在基础上引入常量表示指针为常量的类型时,应该明确其用途。更具优势,特别是在定义复杂类型时。类型别名是为了给现有类型引入别名,以便使用。以下是一些代码示例,展示了如何使用。这行代码定义了一个新的类型别名。类似,但更简洁、可读性更强。引入类型别名在某些情况下比。(从 C++11 开始)
2024-08-06 00:25:41
382
1
原创 深蓝C++ 第三章节;
指针是用于存储变量地址的变量。:定义一个指向val的指针pval是一个整数变量,p保存了val的地址。:定义一个空指针p,指向nullptr。引用(Reference):引用是一个对象的别名,定义后在其生命周期内不能更改绑定对象。引用必须在定义时绑定到一个对象,不能是字面值,也不存在空引用。引用通常比指针更安全。指针的引用:指针 本身是对象,因此可以有指向指针的引用,这样的引用可以用来操作指针。使用const可以声明常量对象,防止对其进行修改,提供更安全和可读的代码。
2024-08-04 23:55:02
727
原创 C++ 初探——第二章节(13课)
函数:一段能够被的代码,可以接收输入,进行并行处理或者产生输出;——返回类型:表示函数返回结果的类型,可以为void——函数名称:用于函数的调用;——:表示函数的接受的数据类型,可以为空,可以为void,可以无形参;——函数体:具体的执行逻辑;main函数:特殊函数,作为整个程序的入口;——返回类型为int,表示程序的返回值;通常使用0表示正常返回;——形参列表可以为空;
2024-08-03 17:00:16
351
原创 使用scp传输文件到本地
scp -r /mnt/3dvision-cpfs/yuetan/model/visibility/visi_v1.1.0 shuaibin@10.8.23.172:/home/shuaibin/Test/demo2/
2024-07-30 17:17:23
320
原创 杂记-镜像
pip intall 出现 error: subprocess-exited-with-error 错误的解决办法———————————pip install --upgrade pip setuptools==57.5.0。-i https://pypi.tuna.tsinghua.edu.cn/simple 清华。https://zhuanlan.zhihu.com/p/562707628 镜像。" . ./" 代表上一层目录。
2024-07-29 23:42:35
390
原创 基于锚框的物体检测过程
锚框匹配在基于锚框的物体检测算法(如 Faster R-CNN、SSD 和 RetinaNet)中起着至关重要的作用。通过匹配锚框与实际目标,可以将检测问题转化为分类和回归问题,从而有效地训练和优化检测模型。这一过程确保了模型能够准确地定位和识别不同尺度和长宽比的目标。
2024-07-15 01:55:59
274
原创 检测精度评价指标召回率和精确率
检测精度评价指标为:1、召回率(Recall Rate ) 2、平均精度均值(mAP) 3、平均对数漏检率(MR-2)计算 TP 和 FP 的示例假设你有一个目标检测模型,并使用它检测图像中的目标。你需要计算 TP 和 FP 以评估模型的性能。
2024-07-15 00:38:25
538
原创 构建图像金字塔遍历不同的大小
总结:通过上述步骤和代码示例,你可以实现遍历图像金字塔的不同大小,并对每一层图像进行处理。这种方法可以用于多种图像处理任务,包括目标检测、图像分析和特征提取等。一旦构建了高斯金字塔,就可以遍历每一层,对每一层的图像进行处理。例如,你可以显示图像,进行图像分析或应用特定的图像处理算法。如果你有一个目标检测算法,可以在每一层图像中运行这个算法,以检测不同大小的目标。1、首先、构建金字塔,其中包括从原始图像到多层缩小后的图像。2、遍历金字塔不同的大小。
2024-07-14 22:50:26
384
原创 量化技术介绍
量化是一个信息有损压缩的过程,如果训练过程中使用FP32,在模型推理时使用Post-training Quantization(PTQ)直接量化为INT8模型,模型精度会存在一定损失。而量化感知训练(Quantization-aware-training, QAT)在模型训练过程中就引入了。量化(quantization)是模型压缩的一种常用方法,通常情况下可以使用不同的量化策略,来模拟量化过程中带来的误差,通过这种方式能够进一步减少量化后模型的精度损失。介绍压缩方法之一:量化;
2024-07-12 09:50:57
311
原创 数据集进行增强
pruned_weights = torch.index_select(model.conv1.weight.data, 0, sorted_channels[num_prune:]) # 获取保留的权重。conv1_weights = model.conv1.weight.data.abs().sum(dim=[1, 2, 3]) # 计算每个通道的L1范数。self.conv1 = nn.Conv2d(1, 4, kernel_size=3, padding=1) # 4个输出通道。
2024-07-11 18:54:30
626
原创 模型剪枝介绍
因此,如何在保持模型准确率的同时,尽可能地减少模型的体积和计算复杂度,成为了一个重要的研究方向。由于深度学习模型中的神经元、卷积核、权重参数等结构单元和参数往往存在冗余和不必要的部分,因此可以通过剪枝技术来减少这些冗余部分,从而达到减小模型体积和计算复杂度的效果。,以减少模型的存储空间和计算复杂度,同时保持模型的准确率。常见的结构剪枝方法包括:通道剪枝、层剪枝、节点剪枝、过滤器剪枝等。对剪枝后的模型进行微调或增量学习,以进一步提高模型的准确率和性能。选择合适的剪枝策略和剪枝算法,以提高剪枝的效果和准确率。
2024-07-11 16:29:36
551
原创 L1和L2正则化
Ref:一篇文章详解深度学习正则化方法(L1、L2、Dropout正则化相关概念、定义、数学公式、Python代码实现)_线性回归用numpy和pandas实现l2正则化-优快云博客
2024-07-10 16:11:43
202
原创 Dropout正则化
Dropout的实现方法:Dropout正确的做法是在训练的过程中按照一定的比例(比例参数可设置)随即忽略一些或者屏蔽一些神经元。随着神经网络模型的不断学习,神经元的权值会与整个网络的上下文相 匹配。周围的神经元则会依赖于这种特殊化,但如果过于特殊化,模型会因为对训练数据的过拟合而变得脆弱不堪。神经元在训练过程中的这种依赖于上下文的现象 被称为复杂的协同适应;以后,输入的特征都是有可能会被随机清除的,所以该 神经元不会再特别依赖于任何一个输入特征,也就是说不会给任何一个输入 设置太大的权重。
2024-07-10 10:49:47
183
原创 BN的 作用
的出现,网络参数量大大减低,使得几十层的深层网络成为可能。然而,在残差网络出现之前,网络的加深使得网络训练变得非常不稳定,甚至出现网络长时间不更新或者不收敛的情形,同时网络对超参数比较敏感,超参数的微量扰动也会导致网络的训练轨迹完全改变。也就是说,通过上面的公式计算,可以将原本随机分布的输入数据x,转化成按正态分布分布的数据x ^ ,从而使得输入网络的数据分布较近,有利于网络的迭代优化。1)使得网络的超参数的设定更加自由,比如更大的学习率,更随意的网络初始化等,同时网络的收敛速度更快,性能也更好。
2024-07-09 20:39:24
518
原创 语义分割和实例分割区别?
具体来说:语义分割的目标是:将行人识别为行人,将车识别为车,将房屋识别为房屋;但是我不去区分每个行人、每辆车和每栋房屋,具体如下:所有行人的颜色是一样的,所有汽车的颜色是一样的,所有房屋的颜色是一样的;实例分割:实例分割同时利用目标检测和语义分割的结果,通过目标检测提供的目标最高置信度类别的索引,将语义分割中目标对应的Mask抽取出来。简而言之,就是把一个类别里具体的一个个对象(具体的一个个实例)分割出来。:语义分割的目的是为了从像素级别理解图像的内容,并为图像中的每个像素分配一个对象类。
2024-07-09 20:23:23
844
原创 Transformer中的编码器和解码器结构有什么不同?
Transformer背后的核心概念:注意力机制;编码器-解码器结构;多头注意力等;例如:The cat sat on the mat;1、嵌入:首先,模型将输入序列中的每个单词嵌入到一个高维向量中表示,这个嵌入过程允许模型捕捉单词之间的语义相似性。2、查询,键,和值向量;接下来,模型为序列中的每个单词计算向量:查询向量、键和值向量。在训练过程中,模型学习这些向量,每个向量都有不同的作用。查询向量表示单词的查询,即模型在序列中寻找的内容。键向量表示单词的键,即序列中其他单词应该注意的内容。
2024-07-09 18:45:27
1760
原创 自注意力机制和多头注意力机制区别
自注意力机制是一种计算输入序列中每个元素对其他元素的重要性的方法。在NLP任务中,输入通常是一个词序列,自注意力机制通过计算每个词与其他词之间的相似度来获取上下文信息。多头注意力机制是在自注意力机制的基础上,引入多个独立的注意力头(attention heads),每个头在不同的子空间中独立计算注意力。自注意力机制:通过计算输入序列中每个元素与其他元素之间的相似度,捕捉上下文信息。优点是能够捕捉长距离依赖关系,并且计算效率高。多头注意力机制。
2024-07-07 18:09:21
852
原创 扩散模型笔记2
在扩散模型中,每一步添加的噪声是从标准正态分布中重新采样的,因此每一步的噪声是不同的。系数 αt 控制了每一步中噪声的添加量,通常随着时间步的增加而变化。这种方法确保了噪声逐步增加,使得图像逐渐从原始状态变为完全噪声化的状态。
2024-07-07 17:42:45
367
原创 扩散模型笔记
设置步长参数T为1000看起来很大,但实际上通过使用马尔可夫链的性质,我们可以简化计算,只需要生成特定时间步的噪声图像,而不需要每一步都计算所有中间状态。这使得生成噪声图像的过程更加高效和简便。在扩散模型中,第499步的图像是通过前一步(第498步)的图像生成的,而第498步的图像是通过第497步的图像生成的,以此类推。这种逐步生成的方法依赖于马尔可夫链的性质,即每一步的状态只依赖于前一步的状态。不过,如果我们只关心第499步的图像,我们不需要依次生成每一步的图像。
2024-07-07 17:38:33
1129
原创 new和malloc区别:
对象在创建的同时要自动执行构造函数,对象在消亡之前要自动执行析构函数,由于malloc/free函数是库函数而不是运算符,不在编译器控制权限之内,不能够把执行构造函数和析构函数的任务强加于malloc/free。3、因此C++语言需要一个能完成内存分配和初始化工作的运算符new,以一个能够清理与释放工作的运算符delete。1、malloc和free是C++/C语言的标准库函数,new和delete是C++中的运算符。4、C++程序经常要调用C函数,而C程序只能用malloc/free管理动态内存。
2024-06-17 14:32:23
197
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人