- 博客(12)
- 收藏
- 关注
原创 YOLOv1、YOLOv2、YOLOv3目标检测算法原理与实战|YOLOv3目标检测算法原理
准确率 (Accuracy)准确率是指模型预测正确的样本数占总样本数的比例。它反映了模型整体的预测准确性。计算公式优缺点优点:简单易懂,适用于类别分布均衡的数据集。缺点:当类别不平衡时,准确率可能会误导。比如,如果一个数据集90%的样本是负类,那么即使模型总是预测负类,准确率也能达到90%,但是模型并没有真正学会识别正类。
2025-01-22 19:53:12
1202
原创 YOLOv1、YOLOv2、YOLOv3目标检测算法原理与实战|YOLOv2目标检测算法原理
数据预处理:调整图像大小、数据增强。卷积层特征提取:使用卷积层提取图像特征。Anchor Boxes 生成候选框:为每个网格单元生成多个候选框,并预测边界框位置、尺寸和置信度。类别预测:每个网格单元预测物体的类别。NMS 处理:去除重叠框,保留最优框。输出结果:生成目标检测结果,包括边界框和类别。
2025-01-21 20:09:40
1249
原创 YOLOv1、YOLOv2、YOLOv3目标检测算法原理与实战|YOLOv1目标检测算法原理
炮哥带你学——YOLOv1、YOLOv2、YOLOv3目标检测算法原理与实战 前面步骤和分类网络类似,最后步骤不同。 虽然有两个预测框,但是最后选择一个,可以增加准确性。20个类别的概率之和为1。 Yolov1可以做分类,也可以做目标检测。
2025-01-21 10:49:00
1146
原创 Pytorch框架与经典卷积神经网络学习Day6|ResNet原理与实战
它通过解决“内部协方差偏移”问题,确保每一层输入的均值和方差稳定,从而避免了梯度消失或梯度爆炸问题,加速了网络收敛,同时允许使用更高的学习率,进一步提升了训练速度。BN(BatchNormalization,批量归一化)是深度学习中常用的一种技术,旨在解决神经网络训练中由于内部协方差偏移(InternalCovariateShift)引起的优化问题,从而加速训练过程、提高模型的稳定性,并使得网络能使用更高的学习率。例如,如果原始数据的分布很有意义,通过标准化后可能会导致重要的特征信息丧失。
2025-01-18 23:42:19
687
原创 Pytorch框架与经典卷积神经网络学习Day5|GoogLeNet原理与实战
(Inception Block)是深度卷积神经网络(DCNN)中的一种模块设计,用于在不同尺度上提取特征。GoogLeNet论文里有LRN局部归一化,其实写代码时已经不用了。必须使输出的高和宽一致,才能进行通道合并。卷积核通道数降维的话,可以减少网络参数。有9个Inception Block。GoogLeNet参数比VGG少。中提出,是该网络核心创新之一。
2025-01-17 19:23:29
551
原创 Pytorch框架与经典卷积神经网络学习Day4|VGG原理与实战
(1)3*3效果也不错(2)块状结构(3)网络更深,效果也更好,参数也更多(后续不一定越深效果越好)
2025-01-16 19:19:20
964
原创 python快速入门Day1
自定义方法print(x)#调用#(0,'h')#(1,'e')#(2,'l')#(3,'l')#(4,'o')#(5,' ')#(6,'w')#(7,'o')#(8,'r')#(9,'l')#(10,'d')定义了一个函数getBatch(),用于将输入的my_batch列表转换为 PyTorch 的张量(tensor),并且指定了张量的类型为torch.long(即 64 位整数类型)。通过此代码输出一个张量,其中包含。
2025-01-13 21:34:21
354
原创 Pytorch框架与经典卷积神经网络学习Day2|CNN卷积神经网络算法原理(2)
(Channel)指的是特征图(Feature Map)中存储的不同特征或特征映射的数量,而不再仅仅是图像的颜色通道(如RGB中的3个颜色通道)。假设输入是一个RGB图像,它会有三个通道(红色、绿色、蓝色),输入数据的形状为 H×W×3,其中H为图像高度,W为图像宽度,3是RGB颜色通道。中的每一层神经元都与上一层的每个神经元相连接,因此每个神经元都有自己的权重。(例如,假设一张输入图片有3个颜色通道(RGB),然后通过卷积层提取出256个特征,那么这一层的输出就有256个通道,每个通道都是一个特征图。
2025-01-13 15:15:06
1450
2
原创 Pytorch框架与经典卷积神经网络学习Day1|CNN卷积神经网络算法原理
Tanh函数导数值域比Sigmoid函数导数值域大,所以Tanh函数训练轮次比Sigmoid函数少,可以更快找到最优的w和b。ReLU函数导数左端等于0,和前两个函数梯度消失不同,为神经元死亡,w和b不是不是更新比较慢而是不更新了。若算平均误差,正负值相加会对结果产生影响,如(1+0+(-1))/3=0,所以使用均方误差。导函数两端导数趋近于0,梯度消失,w和b更新缓慢,难以找到最优的w和b。回归问题:输出值是连续的,如预测明天气温,预测前面的人多高。更新w和b,是我们的损失函数越来越小。
2025-01-12 22:45:27
550
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人