自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 centerloss 与 arcfaceloss

当使用centerloss嵌入模型时,一定要进行二范数归一化,因为它在计算距离时没有一个范围,范围是正无穷到负无穷,无法更新中心点。

2025-01-10 11:24:04 189

原创 yolov8笔记

在日常的工作中我们不会全部用到yolov8所绘制出来的图像,我们只需要我们关注的几个部分,所以必须要学会自己绘制。

2025-01-07 14:38:36 563

原创 yolov5和yolov8的区别

:无锚框在构建模型时将其看作一个点,即目标框的中心点。不依赖于预定义的锚框,而是直接预测目标的中心点。直接学习目标框的位置,通常通过回归目标框的四个顶点坐标来实现。同样,模型负责为每个目标预测其类别,在预测结束后,采用NMS进行后处理。

2025-01-06 10:12:20 805

原创 模型压缩笔记

非结构化剪枝指的是在模型中独立地剪除单个不重要的权重,而不考虑这些权重所属的层或特征图,通常,剪枝的目标是去除那些对模型输出贡献较小的权重。- 结构化剪枝通过去除整个结构单位(如神经元、卷积核、通道、层等)来减少模型的计算复杂度。与非结构化剪枝不同,结构化剪枝去除的是一个整体的结构,而非单个权重。整体地选择并剪去某些结构单元(如权重、通道、卷积核、神经元等)。与层级剪枝(Layer-wise Pruning)不同,全局剪枝不局限于单独的某一层,而是在网络的所有层中统一进行剪枝决策。

2025-01-04 16:58:54 1156

原创 yolov5面试题

是数据集配置文件,用于目标检测中获取数据的相关路径和信息,里面包含数据的类别等文件是一个模型配置文件,用于定义 YOLOv5 的网络结构(包括 backbone 和 head 的配置)。它是 YOLOv5 的核心文件之一,决定了模型的架构、层数和参数量。

2024-12-26 19:43:59 1643

原创 yolov4面试题

mosaic数据增强是多图增强中的高级策略,常用于对于复杂场景及复杂目标的检测,它通过4张图象进行裁剪,拼接成一个新的图像优点:提高了模型对于复杂场景的处理能力,帮助模型更好学习到不同类别的边界,适合目标较小难以区分的情况缺点:计算资源开销较大,mosaic方法在训练中需要对图像进行多次裁剪,缩放和拼接操作;会与复杂场景和小目标检测有较好的效果,对于分类任务或分割任务没有明显的优势1)重采样:过采样:增加少数类别的样本数量欠采样:减少多数类别的样本数量2)数据增强。

2024-12-19 15:05:49 1153

原创 以图搜图项目制作

1)搜集猫、狗、羊三分类的图片储存在三种类别文件夹中2)获取图片路径(其中采取了listdir,for循环,os.path.join的方法)3)获取图片(Image.open("图片路径"))4)获取图片总数,即数据集的长度(定义__len__方法)5)获取图片对应的索引(定义__getitem__方法)

2024-12-16 17:02:06 1001

原创 深度学习网络中损失计算和正确率计算

total_loss += loss * images.size(0)中loss是一批次的平均损失,imagese.size(0)是一批次的样本数量,两个相乘————>一批次所有样本数量的总损失。第一段代码的准确率采用bool张量计算每一批次的准确率,循环500次,总正确数/总样本数 = 总样本数的正确率。total_loss是所有批次的所有样本数量总损失,len(train_loader)是总批次数50。第一段代码损失函数采用将每一轮的平均损失累加 / 总批次数 = 平均每个批次的平均损失。

2024-12-05 16:01:32 276

原创 神经网络中各参数形状变化

输入数据(images) (batch_size, channels, height, width) (100,3,32,32)卷积层权重 (out_channels, in_channels, kernel_height, kernel_width) (64, 3, 3, 3)

2024-12-04 15:13:48 191

原创 损失函数的分类

真实值target会自动进行one-hot编码预测值logits会自动使用softmax归一化多分类交叉熵损失函数CrossEntropyLoss自动调用了softmax这里的损失函数默认计算的是n个样本的平均损失值,如果要换成和,可用。

2024-11-28 11:16:21 1388

原创 sklearn数据预处理

当数据(x)按照最⼩值中⼼化后,再按极差(最⼤值 - 最⼩值)缩放,数据移动了最⼩值个单位, 并且会被收敛到[0,1]之间,⽽这个过程,就叫做数据归⼀化x是原始特征值。min(x) 是特征的最⼩值。max(x) 是特征的最⼤值。x' 是缩放后的特征值。在sklearn当中,我们使⽤preprocessing.MinMaxScaler来实现这个功能。MinMaxScaler有⼀个 重要参数,feature_range,控制我们希望把数据压缩到的范围,默认是[0,1]。

2024-11-22 13:40:57 1093

原创 apply( )与map( )的区别

【代码】apply( )与map( )的区别。

2024-11-04 20:35:19 326

原创 Numpy 学习总结

1. array(列表/元组/ndarray): array中使用列表/元组/ndarray得到的是新的ndarray对象2. asarray(列表/元组/ndarray):asarray中使用列表/元组得到的是新的ndarray对象;asarray中使用ndarray得到的不是新的ndarray对象, 而是原来旧的ndarray。

2024-11-01 20:56:21 962

原创 numpy作业

他会box的0索引的值和boxe的0索引的值比较大小,在和box的1索引和boxes的1索引比较,right方面是box的2索引的值和boxes的2索引比较,在和box的3索引和boxe的3索引比较。1)掌握使用lanmbda作为排序的关键字,意思是按照x的索引1的值来进行排序,适用于有kv值的情况排序;3)计算A向量*B向量:A向量=b-a B向量=c-b ,1)cosA = A向量*B向量/A向量的模*B向量的模。4)计算A向量的模*B向量的模,A向量*B向量即是两个点的点积。

2024-11-01 13:25:11 235

原创 python学习复习总结

介绍:Number数字类型,其数字对象是不可变的,一旦创建其值就不再改变。

2024-10-28 14:02:50 321

原创 python中对象总结(自用)

对象的属性:叫做实例属性也叫做成员属性,python中对象的属性一般定义在__init__方法中,所以我们需要重写__init__方法1.什么叫__init__方法?__init__方法叫做初始化方法,也叫构造方法,其作用:给对象的属性进行初始化__init__在__new__之后执行"""self:自身的意思, 哪一个对象调用该方法, self就表示哪一个对象注意: 这里的self仅仅是形参的名称,可以修改成任意名字, 但是为了见名知意, 所以都使用了self"""# 赋值即定义。

2024-10-24 13:43:37 801

原创 python中各种函数及参数总结

50.zip(sep1,sep2)函数:用于将可迭代的对象(如列表、元组、字典等)作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的对象(注意,返回的其实是一个。3.format()函数:实现格式化输出 "Hello, {}".format("Alice") → "Hello, Alice"30.pop()函数:去掉数据的指定位置的数据,有返回值,默认是删除末尾的。5.int()函数、float()函数、str()函数等:类型的转化函数。

2024-10-17 01:18:01 337

原创 总结python中的容器.

列表是可变序列:添加,删除,修改元素不会返回新的对象;可重复的:迭代对象可以重复;有序的:获取元素的顺序和存储元素顺序一样,列表底层使用的是顺序表结构,顺序表在内存中是一段连续的地址空间,列表中一般存储相同的数据类型,但是不同的数据类型也是可以存放在一起的。

2024-10-16 20:49:09 931

原创 python列表学习(自用)

del + 索引方式是删除列表的元素。

2024-10-13 10:25:47 190

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除