- 博客(61)
- 收藏
- 关注
原创 【无标题】
词典V(新华字典里面把所有的词集合成一个集合V)假设词典里面只有8个单词计算机不认识单词的但是我们要计算机认识单词独热编码:给出一个8*8的矩阵。
2025-06-11 18:15:08
294
原创 【无标题】
当n=3或2的时候,出现火星的概率都很小。但是当n=1的时候,出现火星和词性的概率都合理的比较大。当n越小,可以降低计算的复杂度,但是可能越不准确。
2025-06-11 17:34:15
692
原创 async,await 协程的理解
其实就是一个调度器,对于遇到await关键词,就让出协程控制权给调度器,自己就会挂起。调度器就会去执行其他任务,等挂起的程序执行完了会主动告诉事件循环调度器"我执行完了",然后协程就会执行这个事件之后的代码。上代码演示await asyncio.sleep(2) # 模拟 I/O 阻塞,等待 2 秒# 将协程 say_hello 加入事件循环await asyncio.sleep(1) # 主函数中暂停 1 秒# 启动事件循环。
2025-04-24 11:55:49
592
原创 注意力机制-学习
句子:"The animal didn't cross the street because it was too tired." 在这个句子中,“it”指的是“animal”.在自注意力机制中,当我们处理到“it”这个词时,模型会计算“it”与句子中其他所有词的关联度。这意味着“it”不仅会考虑前一个词“too”,还会考虑更早出现的词,比如“animal”。
2025-03-10 19:42:42
368
原创 Transformer学习
注意力机制早在上世纪九十年代就有研究,最早注意力机制应用在视觉领域,后来伴随着2017年Transformer模型结构的提出,注意力机制在NLP,CV相关问题的模型网络设计上被广泛应用。举例说明:当我们看到下面这张图时,短时间内大脑可能只对图片中的“锦江饭店”有印象,即注意力集中在了“锦江饭店”处。短时间内,大脑可能并没有注意到锦江饭店上面有一串电话号码,下面有几个行人,后面还有“喜运来大酒家”等信息。
2025-03-04 17:53:45
928
原创 模型蒸馏(Knowledge Distillation)
模型蒸馏()是一种迁移学习技术,其目标是通过将一个大模型(通常被称为)的知识传递给一个小模型(被称为),从而让学生模型在较小的网络规模下取得与教师模型相近的性能。这个过程的核心思想是让学生模型不仅学习目标标签(硬标签),还学习教师模型的输出(软标签),从而更好地捕捉教师模型的预测信息和特征。
2025-02-19 21:36:43
1004
原创 Center Loss 和 ArcFace Loss 笔记
是基于角度的损失函数,用于增强特征的判别性。通过在角度空间引入额外的边际约束,强迫同类样本之间更加接近,而不同类样本之间更加远离。旨在最小化类内特征的离散程度,通过约束样本特征与其类别中心之间的距离,提高类内特征的聚合性。对于样本 xi 和其类别yi,
2025-01-09 19:57:09
876
原创 模型优化(剪枝,蒸馏,量化)
全局剪枝(Global Pruning)是指在神经网络训练中,通过删除网络中不重要或冗余的权重、神经元、或者层,来减少网络的复杂度和提高计算效率的技术。与局部剪枝不同,局部剪枝只在单个神经元或单个层级上进行剪枝,而全局剪枝则是基于整个网络的全局视角来判断哪些部分可以被剪除。具体步骤通常包括:全局剪枝的优点在于能更有效地减少计算量和内存使用,从而提高推理速度和减少模型大小,特别适用于资源受限的环境(如嵌入式设备)。但是,全局剪枝也可能导致模型性能下降,特别是在剪枝过度时。解释知识蒸馏是一
2025-01-04 17:03:25
1611
原创 yolov5和yolov8的区别
7. yolov5的网络配置文件:yolov5\models\yolov8l.yam, yolov8n.yam, yolov8m.yam, yolov8s.yam, yolov8x.yam。3. yolov5有三个损失函数,回归问题:预测框和建议框的损失(中心点宽高偏移量的损失):CIOU+FocalLoss损失函数,。4. yolov8有两个损失函数,回归问题:预测框和真实框的损失(中心点宽高偏移量的损失):CIOU)DFL损失函数。1. yolov5有建议框,yolov8没有建议框。
2025-01-03 20:10:39
1662
原创 模型三大评估指标
首先解释什么是AP(Average Precision,平均精度),AP就是P-R图中曲线下的面积,反应了单一类别中精确率和召回率的综合表现。简单记忆:图中有100个真正的目标,你预测出了80个为真的目标,那这80个就是你召回来的真孤魂野鬼,该安息了哈哈哈。是机器学习中用于评估分类模型性能的工具,它通过展示模型在测试数据上的预测结果与真实标签的对比情况,直观地反映模型的分类效果。而P-R图就和图中一样,画一个45°的斜线,和曲线相交的位置,就是最大满足查全率的同时也最大满足查准率的点。
2024-12-19 18:33:10
3471
原创 Yolov4的优势
数据增强是一种用于提升模型泛化能力的关键技术。在YOLOv4中,采用了多种数据增强方法,包括但不限于马赛克增强(Mosaic Augmentation)、随机裁剪、随机旋转、颜色抖动(Color Jittering)等。这些方法通过在训练过程中不断对输入数据进行变化,使模型能够更好地适应各种实际场景。
2024-12-19 15:34:14
1079
原创 解决梯度消失的几种方法
问:什么是梯度消失?答:梯度消失是指在深层网络结构中,反向传播中链式求导在浅层网络出出现非常小的值,导致求出的损失非常小,从容导致梯度几乎消失。问:为什么会出现梯度消失?答:往往在激活函数中使用饱和激活函数(sigmoid和tanh)导致当前层输出的结果很小,从而使整个模型的损失大幅降低,导致梯度消失。问:除了激活函数的影响还有哪些影响?答:在何凯明等人发现残差之前,总结出越深层的网络,往往模型因为参数太多模型太复杂,或因为卷积过程中丢失特征,导致深层的网络不如浅层网络。
2024-12-19 14:49:18
1390
原创 Focal Loss损失函数理解
简介:Focal Loss损失函数是对交叉熵损失函数的升级。是和yolo配套的因为yolo会对图像进行网格化处理,会分出正负样本,是多目标检测,而不是简单的分类问题。
2024-12-18 20:22:49
962
原创 Yolov3源码解析
import cfgimport osLABEL_FILE_PATH = "data/Parse_label.txt" # 标签数据地址IMG_BASE_DIR = "D:/AI/study_ai/processed_images" # 数据总地址])#对数据进行处理def one_hot(cls_num, i):#做一个onehot分类函数b = np.zeros(cls_num)#编一个类别数的一维o数组b[i] = 1.#在指定的位置填充1return b。
2024-12-18 17:08:07
970
原创 全连接神经网络实践
这样确保了我测试时,测试的是我训练过程中训练出的最好的模型。1. 我发现这样的数据不太理想,原因:1. 不同类型的动物图片数量不同,2. 自己手动分了训练集和测试集的文件夹,测试集和训练集图片差异很大。基本上测试企鹅和火鸟,老鹰都能正确,但是啄木鸟和白鸟测试结果不如意,因为啄木鸟和白鸟特征不明显,企鹅和火鸟还有老鹰特征更加突出。3. 我发现在训练模型时,训练最好损失最小的当次没能保留下来,只是单纯的测试训练的最后一次的结果模型。是一种常用的插值算法,特别适用于缩小图像时,能够更好地保留图像的细节。
2024-12-01 15:48:24
498
原创 对mnist数据集的训练
3. 使用for循环迭代训练数据,得到单批次的数据,并对模型进行训练。打印每轮学习中的平均损失率。4. 使用for循环迭代测试数据,测试模型,再拿模型对结果的打分和真实值进行比较,求出正确率。2. 然后通过torch.utils.data中的dataloader对数据进行分批处理。1. 首先使用torchvision中的datasets获取数据。
2024-11-28 18:55:09
434
原创 总结如何自定义数据集
DataSet是pytorch下的数据集抽象类。可以继承它下面的__len__和__getitem__这两个方法,来定义数据集自定义Dataset的关键步骤DataLoader可以批量加载数据,可以控制每批次多少样本,可以打乱数据顺序,同时还支持多线程并行加载数据DataLoader的常用参数。
2024-11-28 17:38:58
441
原创 损失函数分类
直接对预测的概率 p(yi) 的负对数求平均。通常配合Softmax使用,输入为对数概率。内部集成了Softmax和NLLLoss的计算。用于二分类任务,输入为概率值(通常在 [0, 1])。结合了 Sigmoid 和 BCELoss 的计算。衡量预测值和真实值之间的平方差。衡量预测值和真实值之间的绝对差。结合了 MSE 和 MAE 的优点。
2024-11-27 18:57:33
1089
原创 最大最小外接矩形
1. 读取图像并转换为灰度图2. 查找轮廓3. 计算最小外接矩形4. 获取矩形的四个顶点并进行坐标处理5. 绘制最小外接矩形1. 读取图像并转换为灰度图2. 查找轮廓3. 计算水平外接矩形的坐标和尺寸4. 绘制矩形水平外接矩形是沿图像坐标轴的矩形框,简单而高效,适用于大多数情况。适合对规则形状和固定方向的目标物体进行包围,但如果物体是倾斜或不规则形状,最小外接矩形可能更加精准。
2024-11-01 20:01:39
579
原创 HSV图像,灰度图使用场景区别
选择 HSV: 当需要处理颜色信息、进行颜色分割或面对光照变化时。选择灰度图: 当关注亮度变化、需要更高的处理效率或进行特征提取时。根据具体任务的需求,灵活选择适合的颜色空间或图像形式将有助于提高处理效果和效率。
2024-10-31 17:32:24
628
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人