YOLO基础教程(五):目标检测基本原理

本文介绍了YOLO(You Only Look Once)目标检测算法的基本原理,包括目标定位、基于滑动窗口的目标检测方法、卷积的滑动窗口、YOLO算法的思想、交并比(IOU)、非最大抑制以及Anchor Box的使用。通过将图片划分为网格并预测每个网格中的对象,YOLO大大减少了运算量,提高了检测效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文内容主要参考,吴恩达《卷积神经网络》 第三周目标检测

视频地址:https://www.bilibili.com/video/av36381900/?p=3

1.  目标定位:使用算法判断图片中是不是目标物体,如果是还要再图片中标出其位置并使用边框标记出来

在普通的图片分类网络中,对于一个图片,经过卷积层特征提取后,送入softmax层转为为对于的概率

而分类定位则是在图片分类网络的基础上加入了全连接层的输出bx,by,bh,bw和一个分类标签(c1,c2,c3...),其最后输出形式如下:

其中:

Pc:表示被检测对象某一分类的概率(即是否含有被检测的对象)。假设要检验汽车、摩托车、行人、景物。但是前三个检测对象是我们关心的,那么如果出现Pc为1,图片为景物或者其他不是我们关系的则Pc为0。

bx,by,bh,bw:bx,by为标记边框的中心位置坐标,bh,bw:为标记边框的长高。将图片归一化,设图片左上角标记为(0,0),右下角标记为(1,1),对于图中汽车中心点,其数据大概可以是 bx =0.5,by = 0.7 。对于bounding box,其 bh = 0.3,bw = 0.4 

c1,c2,c3.....cn:为分类标签,n对应自己实际的分类标签个数。但是在c1,c2,c3.....cn 中只有一个为1。若分类标签次序为汽车,摩托车和行人,所以n=3,c1 = 1,其余为0

损失函数计算:

Pc为1时,即检测出了感兴趣的物体,损失值等于每个元素相应差值的平方,即输出y中的每个元素作差再求平方和

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值