- 博客(6)
- 收藏
- 关注
原创 SLICING AIDED HYPER INFERENCE AND FINE-TUNING FOR SMALL OBJECT DETECTION--小物体检测论文研读
此外,使用切片辅助和微调造成了一个额外的14.5%AP的提升在小物体检测中,在切片中采用25%的重叠提高了2.9%AP。在NMS阶段,比预定义的匹配阈值Tm有更高的IoU比率的boxes会被匹配,每次匹配,去除检测概率低于Td的检测。一起在微调的过程中被使用。值得注意的是,随着patch size的减少,更大的目标可能不能在一个切片和相交区域内适应,这可能会导致对大物体的检测性能较差。在这篇论文中,我们提出了一个在保持较高存储器利用的同时,对在高分辨图像中检测小物体基于切片辅助推测和微调的方法。
2025-05-05 15:16:05
691
原创 UFPMP-Det论文研读
我们先在所有的已有的bbx集合Bc中挑选出来一个最小的框A,然后Bc-A,我们计算出能将A和集合Bc中任意一个bbx包裹的最小框C,如果A与B的面积之和大于C,说明A与B的重叠度比较大,我们就让A=C,如此往复便利所有的B,然后将A加入Br,如此往复直到Bc变为空我们得到一个最终的前景区域集合Br。当航拍图片被一个粗略的detector提取出很多前景子区域时,UFP引入了三个重要步骤,:第一,将前景子区域合并为很多聚类区域,第二,小物体的聚类区域被适应性放大,第三,调整过的聚类区域被统一打包。
2025-04-24 22:31:32
670
原创 YOLC:密集小物体检测-论文解读
为了更好的提高网络的表现,采用GWD-based loss functions代替了原本的CenterNet的loss。这些工作可以高效的提高小物体的的检测表现,但是他们的训练的需要更多的计算资源。区别于传统的检测器进行特征提取时的采样位置确定,本文提出了利用卷积网络平行计算偏移和粗略的bbx,我们将偏移量限制在bbx之内,这时我们的采样位置变为:中心+ 学到的偏移量,然后利用一个可变形的卷积层预测bbx。CenterNet将每一个物体建模成了在他的bbx中的一个点,表现为在heatmap中的一个高斯团。
2025-04-20 21:24:11
1909
原创 《Cascaded Zoom-in Detector for High Resolution Aerial Images》论文研读
先明确一个点:这个方法并没有添加任何的组块,也就是没有我们常见的A+B+C组合,他仅仅是对包含了很多小物体的模块进行了crop,然后用boundingbox将这个含有很多小物体的区域进行了包围形成一个新的class,然后将这个新的class在训练的时候放到high-resolution进行分析。在第二阶段将筛选出的density crop进行了upscale,相当于提高了这块区域的分辨率,使特征更加清晰,然后,将这个density crop再放入这个检测器中检测,最后,将这个坐标回归到原图。
2025-04-16 17:05:02
836
原创 EDNet论文详解--有关无人机航拍目标检测模型
思考:本文设计了一个新的backbone去提取特征,新的模块相比于传统的backbone来说进行了轻量化的设计,同时通过将Head的检测的像素点拉高,进而获取更多的信息。最后对loss的设计使模型在训练时更加关注困难样本。beta的比值(当前的样本的loss与平均loss的比值)说明了这个样本是一个困难样本还是简易样本,当beta越大意味着r越大,因此就能够提高模型对困难样本的关注。CSS作为一种新的拼接方式,他先将SPPF的输出跨板块进行拼接,然后将PSA的输出进行上采样,增强了对特征的多尺度的提取。
2025-04-11 14:36:55
1974
原创 Attention(注意力机制)通俗理解
假设我们有一个简单的句子:“猫喜欢追逐老鼠”。如果我们要对“喜欢”这个词进行编码,一个简单的方法是只看这个词本身,但这样会忽略它的上下文。“喜欢”的对象是“猫”,而被“喜欢”的是“追逐老鼠”。在这里,“猫”和“追逐老鼠”就是“喜欢”的上下文,而注意力机制能够帮助模型更好地捕获这种上下文关系。生活中,我们在了解一个事物中,都会先了解他的重点,这其实就是我们把注意力放在在了重点上,深度学习模型也是如此,例如在处理长句子或者是一大幅图片时,当我们将更多的计算聚焦在重要的内容上时,我们就能够省掉大量计算。
2025-03-28 14:04:02
2133
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅