自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(58)
  • 收藏
  • 关注

原创 (多头注意力机制)为什么要用多头?

(多头注意力机制)为什么要用多头?

2025-03-12 17:55:18 80

原创 注意力机制-学习

句子:"The animal didn't cross the street because it was too tired." 在这个句子中,“it”指的是“animal”.在自注意力机制中,当我们处理到“it”这个词时,模型会计算“it”与句子中其他所有词的关联度。这意味着“it”不仅会考虑前一个词“too”,还会考虑更早出现的词,比如“animal”。

2025-03-10 19:42:42 336

原创 Transformer学习

注意力机制早在上世纪九十年代就有研究,最早注意力机制应用在视觉领域,后来伴随着2017年Transformer模型结构的提出,注意力机制在NLP,CV相关问题的模型网络设计上被广泛应用。举例说明:当我们看到下面这张图时,短时间内大脑可能只对图片中的“锦江饭店”有印象,即注意力集中在了“锦江饭店”处。短时间内,大脑可能并没有注意到锦江饭店上面有一串电话号码,下面有几个行人,后面还有“喜运来大酒家”等信息。

2025-03-04 17:53:45 891

原创 LayerNorm和BatchNorm

LayerNorm是对每一行变成均值为0方差为1的数。即是对一个样本中的所有的特征点进行标准化。

2025-03-04 12:09:40 181

原创 RNN,LSTM,GRU三种循环网络的对比

嘻嘻嘻。

2025-02-27 20:46:53 290

原创 GRU门控循环网络--原理分析

学习。

2025-02-27 19:22:38 98

原创 LSTM长短期记忆网络-原理分析

x'x学习。

2025-02-27 19:22:04 271

原创 RNN循环神经网络-原理分析

嘻嘻嘻。

2025-02-27 19:21:21 108

原创 Agent的理解

Agent的理解

2025-02-24 11:38:15 82

原创 模型蒸馏(Knowledge Distillation)

模型蒸馏()是一种迁移学习技术,其目标是通过将一个大模型(通常被称为)的知识传递给一个小模型(被称为),从而让学生模型在较小的网络规模下取得与教师模型相近的性能。这个过程的核心思想是让学生模型不仅学习目标标签(硬标签),还学习教师模型的输出(软标签),从而更好地捕捉教师模型的预测信息和特征。

2025-02-19 21:36:43 963

原创 文本分类模型

NLP自然语言模型

2025-02-17 10:50:24 70

原创 模型的迁移学习

学习

2025-02-11 18:49:49 276

原创 商品检测项目总结

实现

2025-02-11 18:49:18 68

原创 Center Loss 和 ArcFace Loss 笔记

是基于角度的损失函数,用于增强特征的判别性。通过在角度空间引入额外的边际约束,强迫同类样本之间更加接近,而不同类样本之间更加远离。旨在最小化类内特征的离散程度,通过约束样本特征与其类别中心之间的距离,提高类内特征的聚合性。对于样本 xi​ 和其类别yi​,

2025-01-09 19:57:09 731

原创 模型优化(剪枝,蒸馏,量化)

全局剪枝(Global Pruning)是指在神经网络训练中,通过删除网络中不重要或冗余的权重、神经元、或者层,来减少网络的复杂度和提高计算效率的技术。与局部剪枝不同,局部剪枝只在单个神经元或单个层级上进行剪枝,而全局剪枝则是基于整个网络的全局视角来判断哪些部分可以被剪除。具体步骤通常包括:全局剪枝的优点在于能更有效地减少计算量和内存使用,从而提高推理速度和减少模型大小,特别适用于资源受限的环境(如嵌入式设备)。但是,全局剪枝也可能导致模型性能下降,特别是在剪枝过度时。解释知识蒸馏是一

2025-01-04 17:03:25 1485

原创 yolov5和yolov8的区别

7. yolov5的网络配置文件:yolov5\models\yolov8l.yam, yolov8n.yam, yolov8m.yam, yolov8s.yam, yolov8x.yam。3. yolov5有三个损失函数,回归问题:预测框和建议框的损失(中心点宽高偏移量的损失):CIOU+FocalLoss损失函数,。4. yolov8有两个损失函数,回归问题:预测框和真实框的损失(中心点宽高偏移量的损失):CIOU)DFL损失函数。1. yolov5有建议框,yolov8没有建议框。

2025-01-03 20:10:39 1056

原创 训练顺序逻辑

2024-12-29 22:04:36 111

原创 训练不好,如何改进?答案这里

重头训练的模型,使用adam/adamw优化器效果好。先验的模型训练,使用SGD优化器效果好。

2024-12-27 16:35:07 123

原创 数据增强的几大方式

每种方式适用于不同的场景,可以结合使用以提高模型的鲁棒性与泛化能力。

2024-12-19 18:55:06 1527

原创 模型三大评估指标

首先解释什么是AP(Average Precision,平均精度),AP就是P-R图中曲线下的面积,反应了单一类别中精确率和召回率的综合表现。简单记忆:图中有100个真正的目标,你预测出了80个为真的目标,那这80个就是你召回来的真孤魂野鬼,该安息了哈哈哈。是机器学习中用于评估分类模型性能的工具,它通过展示模型在测试数据上的预测结果与真实标签的对比情况,直观地反映模型的分类效果。而P-R图就和图中一样,画一个45°的斜线,和曲线相交的位置,就是最大满足查全率的同时也最大满足查准率的点。

2024-12-19 18:33:10 2105

原创 Yolov4的优势

数据增强是一种用于提升模型泛化能力的关键技术。在YOLOv4中,采用了多种数据增强方法,包括但不限于马赛克增强(Mosaic Augmentation)、随机裁剪、随机旋转、颜色抖动(Color Jittering)等。这些方法通过在训练过程中不断对输入数据进行变化,使模型能够更好地适应各种实际场景。

2024-12-19 15:34:14 1029

原创 解决梯度消失的几种方法

问:什么是梯度消失?答:梯度消失是指在深层网络结构中,反向传播中链式求导在浅层网络出出现非常小的值,导致求出的损失非常小,从容导致梯度几乎消失。问:为什么会出现梯度消失?答:往往在激活函数中使用饱和激活函数(sigmoid和tanh)导致当前层输出的结果很小,从而使整个模型的损失大幅降低,导致梯度消失。问:除了激活函数的影响还有哪些影响?答:在何凯明等人发现残差之前,总结出越深层的网络,往往模型因为参数太多模型太复杂,或因为卷积过程中丢失特征,导致深层的网络不如浅层网络。

2024-12-19 14:49:18 1219

原创 Focal Loss损失函数理解

简介:Focal Loss损失函数是对交叉熵损失函数的升级。是和yolo配套的因为yolo会对图像进行网格化处理,会分出正负样本,是多目标检测,而不是简单的分类问题。

2024-12-18 20:22:49 869

原创 Yolov3源码解析

import cfgimport osLABEL_FILE_PATH = "data/Parse_label.txt" # 标签数据地址IMG_BASE_DIR = "D:/AI/study_ai/processed_images" # 数据总地址])#对数据进行处理def one_hot(cls_num, i):#做一个onehot分类函数b = np.zeros(cls_num)#编一个类别数的一维o数组b[i] = 1.#在指定的位置填充1return b。

2024-12-18 17:08:07 947

原创 YOLO模型基础学习

在yolo中特征值是中心点和宽高。

2024-12-11 17:23:07 185

原创 全连接神经网络实践

这样确保了我测试时,测试的是我训练过程中训练出的最好的模型。1. 我发现这样的数据不太理想,原因:1. 不同类型的动物图片数量不同,2. 自己手动分了训练集和测试集的文件夹,测试集和训练集图片差异很大。基本上测试企鹅和火鸟,老鹰都能正确,但是啄木鸟和白鸟测试结果不如意,因为啄木鸟和白鸟特征不明显,企鹅和火鸟还有老鹰特征更加突出。3. 我发现在训练模型时,训练最好损失最小的当次没能保留下来,只是单纯的测试训练的最后一次的结果模型。是一种常用的插值算法,特别适用于缩小图像时,能够更好地保留图像的细节。

2024-12-01 15:48:24 488

原创 损失函数选择

答:回归问题是线性问题,比如房价预测,股市预测,温度预测等。分类问题是非线问题,比如猫狗分类,服装分类等。

2024-11-28 20:02:22 296

原创 对mnist数据集的训练

3. 使用for循环迭代训练数据,得到单批次的数据,并对模型进行训练。打印每轮学习中的平均损失率。4. 使用for循环迭代测试数据,测试模型,再拿模型对结果的打分和真实值进行比较,求出正确率。2. 然后通过torch.utils.data中的dataloader对数据进行分批处理。1. 首先使用torchvision中的datasets获取数据。

2024-11-28 18:55:09 424

原创 总结如何自定义数据集

DataSet是pytorch下的数据集抽象类。可以继承它下面的__len__和__getitem__这两个方法,来定义数据集自定义Dataset的关键步骤DataLoader可以批量加载数据,可以控制每批次多少样本,可以打乱数据顺序,同时还支持多线程并行加载数据DataLoader的常用参数。

2024-11-28 17:38:58 410

原创 损失函数分类

直接对预测的概率 p(yi) 的负对数求平均。通常配合Softmax使用,输入为对数概率。内部集成了Softmax和NLLLoss的计算。用于二分类任务,输入为概率值(通常在 [0, 1])。结合了 Sigmoid 和 BCELoss 的计算。衡量预测值和真实值之间的平方差。衡量预测值和真实值之间的绝对差。结合了 MSE 和 MAE 的优点。

2024-11-27 18:57:33 1068

原创 knn算法

KNN 算法是一种监督学习算法,用于分类和回归任务。

2024-11-22 14:15:29 818

原创 sklearn学习

介绍:scaler:换算的意思。

2024-11-21 15:09:12 1842 1

原创 最大最小外接矩形

1. 读取图像并转换为灰度图2. 查找轮廓3. 计算最小外接矩形4. 获取矩形的四个顶点并进行坐标处理5. 绘制最小外接矩形1. 读取图像并转换为灰度图2. 查找轮廓3. 计算水平外接矩形的坐标和尺寸4. 绘制矩形水平外接矩形是沿图像坐标轴的矩形框,简单而高效,适用于大多数情况。适合对规则形状和固定方向的目标物体进行包围,但如果物体是倾斜或不规则形状,最小外接矩形可能更加精准。

2024-11-01 20:01:39 524

原创 opencv进阶二

1. 车辆检测2. 人脸检测3.多张人脸检测4.检测视频中的人脸5.制作数据集6.训练数据7.人脸识别

2024-11-01 11:35:21 130

原创 opencv进阶学习一

1. 阈值2.腐蚀3.膨胀4.开闭运算5.形态学梯度6.顶帽及黑帽7.查找轮廓和绘制轮廓8.最小最大外接矩形9.背景分离

2024-11-01 11:33:58 140

原创 HSV图像,灰度图使用场景区别

选择 HSV: 当需要处理颜色信息、进行颜色分割或面对光照变化时。选择灰度图: 当关注亮度变化、需要更高的处理效率或进行特征提取时。根据具体任务的需求,灵活选择适合的颜色空间或图像形式将有助于提高处理效果和效率。

2024-10-31 17:32:24 558

原创 opencv 抠图

【代码】opencv 抠图。

2024-10-31 17:31:11 371

原创 glob的用法

模块用于查找符合特定规则的文件路径名。它使用 Unix 风格的路径名模式,可以方便地进行文件查找。返回的列表中包含的是匹配的文件的路径,可以直接使用这些路径进行后续操作,比如打开文件或读取数据。可以递归查找子目录中的文件(需要在 Python 3.5 及以上版本中使用。方法,可以传入一个模式字符串来查找文件。例如,查找当前目录下所有的。匹配序列中的一个字符。在 Python 中,匹配零个或多个字符,

2024-10-30 20:04:49 112

原创 opencv 基础学习二

1. 绘制中文2. 鼠标事件3. 滑动条4. 拆分合并通道5. 图像运算6.图像融合7. 图像位运算8. HSV颜色空间9.图像集合变换10.透视变换

2024-10-30 20:04:30 161

原创 numpy实用函数

解释:1. sum 求和,按照哪一轴求和,不写axis默认是全部求和2. mean 求平均值,sum/len3. average(a, weights=[3, 3, 4], axis=0) 加权平均值,表示按照np数组的0轴进行加权,加权规则按照weight权重列表执行。

2024-10-30 19:50:25 112

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除