
面试
起落安妥
这个作者很懒,什么都没留下…
展开
-
FCN原理讲解
https://juejin.cn/post/7163126966558654501原创 2024-07-18 20:16:04 · 164 阅读 · 0 评论 -
SEnet
原创 2024-07-18 20:01:24 · 99 阅读 · 0 评论 -
softmax进行分类
解释:原创 2024-07-18 12:39:21 · 140 阅读 · 0 评论 -
无需锚框的中心域法FCOS
原创 2024-07-16 19:22:54 · 100 阅读 · 0 评论 -
无需锚框地检测算法
原创 2024-07-16 18:48:43 · 109 阅读 · 0 评论 -
内容回顾:基于锚框的检测算法
原创 2024-07-16 14:06:36 · 134 阅读 · 0 评论 -
人脸识别地 技术与挑战
原创 2024-07-16 13:23:38 · 187 阅读 · 0 评论 -
基于锚框的单阶段检测算法:RetinaNet和Focal loss和难样本挖掘;sigmoid和softmax区分
原创 2024-07-16 11:51:00 · 108 阅读 · 0 评论 -
物体检测单阶段SSD
Faster RCNN 数据增广:原创 2024-07-15 21:37:05 · 226 阅读 · 0 评论 -
Faster R-CNN算法的改进:多个检测层和特征金字塔FPN
原创 2024-07-15 20:02:47 · 316 阅读 · 0 评论 -
R-CNN
原创 2024-07-15 19:40:02 · 105 阅读 · 0 评论 -
基于锚框的物体检测过程
锚框匹配在基于锚框的物体检测算法(如 Faster R-CNN、SSD 和 RetinaNet)中起着至关重要的作用。通过匹配锚框与实际目标,可以将检测问题转化为分类和回归问题,从而有效地训练和优化检测模型。这一过程确保了模型能够准确地定位和识别不同尺度和长宽比的目标。原创 2024-07-15 01:55:59 · 282 阅读 · 0 评论 -
检测精度评价指标召回率和精确率
检测精度评价指标为:1、召回率(Recall Rate ) 2、平均精度均值(mAP) 3、平均对数漏检率(MR-2)计算 TP 和 FP 的示例假设你有一个目标检测模型,并使用它检测图像中的目标。你需要计算 TP 和 FP 以评估模型的性能。原创 2024-07-15 00:38:25 · 549 阅读 · 0 评论 -
构建图像金字塔遍历不同的大小
总结:通过上述步骤和代码示例,你可以实现遍历图像金字塔的不同大小,并对每一层图像进行处理。这种方法可以用于多种图像处理任务,包括目标检测、图像分析和特征提取等。一旦构建了高斯金字塔,就可以遍历每一层,对每一层的图像进行处理。例如,你可以显示图像,进行图像分析或应用特定的图像处理算法。如果你有一个目标检测算法,可以在每一层图像中运行这个算法,以检测不同大小的目标。1、首先、构建金字塔,其中包括从原始图像到多层缩小后的图像。2、遍历金字塔不同的大小。原创 2024-07-14 22:50:26 · 386 阅读 · 0 评论 -
量化技术介绍
量化是一个信息有损压缩的过程,如果训练过程中使用FP32,在模型推理时使用Post-training Quantization(PTQ)直接量化为INT8模型,模型精度会存在一定损失。而量化感知训练(Quantization-aware-training, QAT)在模型训练过程中就引入了。量化(quantization)是模型压缩的一种常用方法,通常情况下可以使用不同的量化策略,来模拟量化过程中带来的误差,通过这种方式能够进一步减少量化后模型的精度损失。介绍压缩方法之一:量化;原创 2024-07-12 09:50:57 · 317 阅读 · 0 评论 -
数据集进行增强
pruned_weights = torch.index_select(model.conv1.weight.data, 0, sorted_channels[num_prune:]) # 获取保留的权重。conv1_weights = model.conv1.weight.data.abs().sum(dim=[1, 2, 3]) # 计算每个通道的L1范数。self.conv1 = nn.Conv2d(1, 4, kernel_size=3, padding=1) # 4个输出通道。原创 2024-07-11 18:54:30 · 640 阅读 · 0 评论 -
模型剪枝介绍
因此,如何在保持模型准确率的同时,尽可能地减少模型的体积和计算复杂度,成为了一个重要的研究方向。由于深度学习模型中的神经元、卷积核、权重参数等结构单元和参数往往存在冗余和不必要的部分,因此可以通过剪枝技术来减少这些冗余部分,从而达到减小模型体积和计算复杂度的效果。,以减少模型的存储空间和计算复杂度,同时保持模型的准确率。常见的结构剪枝方法包括:通道剪枝、层剪枝、节点剪枝、过滤器剪枝等。对剪枝后的模型进行微调或增量学习,以进一步提高模型的准确率和性能。选择合适的剪枝策略和剪枝算法,以提高剪枝的效果和准确率。原创 2024-07-11 16:29:36 · 562 阅读 · 0 评论 -
L1和L2正则化
Ref:一篇文章详解深度学习正则化方法(L1、L2、Dropout正则化相关概念、定义、数学公式、Python代码实现)_线性回归用numpy和pandas实现l2正则化-优快云博客原创 2024-07-10 16:11:43 · 203 阅读 · 0 评论 -
Transforemr的时间复杂度
原创 2024-07-10 15:13:20 · 120 阅读 · 0 评论 -
Dropout正则化
Dropout的实现方法:Dropout正确的做法是在训练的过程中按照一定的比例(比例参数可设置)随即忽略一些或者屏蔽一些神经元。随着神经网络模型的不断学习,神经元的权值会与整个网络的上下文相 匹配。周围的神经元则会依赖于这种特殊化,但如果过于特殊化,模型会因为对训练数据的过拟合而变得脆弱不堪。神经元在训练过程中的这种依赖于上下文的现象 被称为复杂的协同适应;以后,输入的特征都是有可能会被随机清除的,所以该 神经元不会再特别依赖于任何一个输入特征,也就是说不会给任何一个输入 设置太大的权重。原创 2024-07-10 10:49:47 · 194 阅读 · 0 评论 -
BN的 作用
的出现,网络参数量大大减低,使得几十层的深层网络成为可能。然而,在残差网络出现之前,网络的加深使得网络训练变得非常不稳定,甚至出现网络长时间不更新或者不收敛的情形,同时网络对超参数比较敏感,超参数的微量扰动也会导致网络的训练轨迹完全改变。也就是说,通过上面的公式计算,可以将原本随机分布的输入数据x,转化成按正态分布分布的数据x ^ ,从而使得输入网络的数据分布较近,有利于网络的迭代优化。1)使得网络的超参数的设定更加自由,比如更大的学习率,更随意的网络初始化等,同时网络的收敛速度更快,性能也更好。原创 2024-07-09 20:39:24 · 522 阅读 · 0 评论 -
语义分割和实例分割区别?
具体来说:语义分割的目标是:将行人识别为行人,将车识别为车,将房屋识别为房屋;但是我不去区分每个行人、每辆车和每栋房屋,具体如下:所有行人的颜色是一样的,所有汽车的颜色是一样的,所有房屋的颜色是一样的;实例分割:实例分割同时利用目标检测和语义分割的结果,通过目标检测提供的目标最高置信度类别的索引,将语义分割中目标对应的Mask抽取出来。简而言之,就是把一个类别里具体的一个个对象(具体的一个个实例)分割出来。:语义分割的目的是为了从像素级别理解图像的内容,并为图像中的每个像素分配一个对象类。原创 2024-07-09 20:23:23 · 875 阅读 · 0 评论 -
Transformer中的编码器和解码器结构有什么不同?
Transformer背后的核心概念:注意力机制;编码器-解码器结构;多头注意力等;例如:The cat sat on the mat;1、嵌入:首先,模型将输入序列中的每个单词嵌入到一个高维向量中表示,这个嵌入过程允许模型捕捉单词之间的语义相似性。2、查询,键,和值向量;接下来,模型为序列中的每个单词计算向量:查询向量、键和值向量。在训练过程中,模型学习这些向量,每个向量都有不同的作用。查询向量表示单词的查询,即模型在序列中寻找的内容。键向量表示单词的键,即序列中其他单词应该注意的内容。原创 2024-07-09 18:45:27 · 1819 阅读 · 0 评论 -
自注意力机制和多头注意力机制区别
自注意力机制是一种计算输入序列中每个元素对其他元素的重要性的方法。在NLP任务中,输入通常是一个词序列,自注意力机制通过计算每个词与其他词之间的相似度来获取上下文信息。多头注意力机制是在自注意力机制的基础上,引入多个独立的注意力头(attention heads),每个头在不同的子空间中独立计算注意力。自注意力机制:通过计算输入序列中每个元素与其他元素之间的相似度,捕捉上下文信息。优点是能够捕捉长距离依赖关系,并且计算效率高。多头注意力机制。原创 2024-07-07 18:09:21 · 885 阅读 · 0 评论 -
扩散模型笔记2
在扩散模型中,每一步添加的噪声是从标准正态分布中重新采样的,因此每一步的噪声是不同的。系数 αt 控制了每一步中噪声的添加量,通常随着时间步的增加而变化。这种方法确保了噪声逐步增加,使得图像逐渐从原始状态变为完全噪声化的状态。原创 2024-07-07 17:42:45 · 383 阅读 · 0 评论 -
扩散模型笔记
设置步长参数T为1000看起来很大,但实际上通过使用马尔可夫链的性质,我们可以简化计算,只需要生成特定时间步的噪声图像,而不需要每一步都计算所有中间状态。这使得生成噪声图像的过程更加高效和简便。在扩散模型中,第499步的图像是通过前一步(第498步)的图像生成的,而第498步的图像是通过第497步的图像生成的,以此类推。这种逐步生成的方法依赖于马尔可夫链的性质,即每一步的状态只依赖于前一步的状态。不过,如果我们只关心第499步的图像,我们不需要依次生成每一步的图像。原创 2024-07-07 17:38:33 · 1151 阅读 · 0 评论