- 博客(13)
- 收藏
- 关注
原创 【论文阅读】目标检测--YOLOv4 论文笔记(翻译+理解)
有许多特征被认为可以提高卷积神经网络(CNN)的准确性。需要在大规模数据集上对这些特征的组合进行实际测试,并对结果进行理论上的解释。一些特征仅适用于某些特定模型和特定问题,或仅适用于小规模数据集;而另一些特征,如批归一化(batch-normalization)和残差连接(residual-connections),则适用于大多数模型、任务和数据集。
2025-03-02 12:06:33
934
1
原创 【论文阅读】目标检测--Faster R-CNN 论文笔记(翻译+理解)
本文提出了一种用于目标检测的快速区域卷积网络方法(Fast R-CNN)。Fast R-CNN基于之前的工作,利用深度卷积网络高效地对目标候选区进行分类。与之前的工作相比,Fast R-CNN提出多个创新提升了训练和测试速度,同时提高了检测准确性。Fast R-CNN在训练VGG16时比R-CNN快9倍,在测试时快213倍,并在PASCAL VOC 2012上获得了更高的mAP。与SPPnet相比,Fast R-CNN训练VGG16快3倍,测试快10倍,且精度更高。
2024-11-14 11:37:38
39
1
原创 【论文阅读】目标检测--Fast R-CNN 论文笔记(翻译+理解)
本文提出了一种用于目标检测的快速区域卷积网络方法(Fast R-CNN)。Fast R-CNN基于之前的工作,利用深度卷积网络高效地对目标候选区进行分类。与之前的工作相比,Fast R-CNN提出多个创新提升了训练和测试速度,同时提高了检测准确性。Fast R-CNN在训练VGG16时比R-CNN快9倍,在测试时快213倍,并在PASCAL VOC 2012上获得了更高的mAP。与SPPnet相比,Fast R-CNN训练VGG16快3倍,测试快10倍,且精度更高。
2024-11-03 20:15:06
871
2
原创 【论文阅读】目标检测--SPP-net论文笔记(翻译+理解)
现有的深度卷积神经网络需要固定大小的输入图像(例如,224×224)。这个要求是“人为的”,可能会降低对任意大小/比例的图像或子图像的识别精度。本文在深度卷积神经网络中使用了新的池化策略,“空间金字塔池化”,以避免上述限制。新的网络结构称为SPP-net,无论输入图像大小/比例是多少,都可以生成固定长度的表示。另外,金字塔池化也对目标变形具有鲁棒性。由于这些优势,SPP-net通常能够改善所有基于CNN的图像分类方法。
2024-05-07 09:24:12
1040
1
原创 【论文阅读】目标检测--RCNN论文笔记(翻译+理解)
在过去几年中,在经典的PASCAL VOC数据集上进行的目标检测性能已经达到瓶颈。最佳性能的方法一般是复杂的集成方法,通常将多个低级图像特征与高级语义上下文相结合。在本文中,我们提出了一种简单且可扩展的检测算法,相对于VOC 2012上的先前最佳结果,平均精度(mean average precision, mAP)提高了30%以上,达到了53.3%的mAP。我们的方法结合了两个关键点:(1)将高特征表示的卷积神经网络(CNN)应用于自下而上的候选区域,以定位和分割对象;
2024-04-17 15:22:16
669
1
原创 Ubuntu+Anaconda+Pytorch+PyCharm 环境搭建
Ubuntu+Anaconda+Pytorch+PyCharm 环境搭建
2023-01-08 17:12:17
2363
1
原创 Linux系统启动救援
系列文章目录 提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加例如:文章目录系列文章目录前言一、CentOS 6.5前言本文记录Linux系统启动相关的问题和解决方案一、CentOS 6.5问题描述:在将 /etc/inittab 文件中的默认启动项改为5后:id:5:initdefault:尴尬的发现系统没有图形界面,再也启不来了…解决方法:重启系统,在进入倒计时数秒时按 ‘e’,进入GRUB界面:再按 ‘e’,进入编辑界面:再按 ‘e’,进入高亮行编辑
2022-05-03 22:25:05
524
原创 TF-IDF算法及实现
最近在看莫烦的NLP的课程,其中关于TF-IDF算法实际编程的时候还是遇到一些小问题,整理后放上来,加深记忆。TF-IDF的计算方法有很多种,这里主要用的是SKLEARN中的计算方式,还是有些不一样,费了点劲儿才搞明白。TF:Term Frequency,词频指的是某个词在某篇文章中出现的次数,计算公式为:TF = 某词在某文档中出现的次数也就是说,就一篇文章局部来看,一个单词出现的次数越多就越重要,但这并不是绝对的。比如,a、the、of等单词出现的次数一定不会少,很显然它们并没有什.
2021-10-31 00:36:05
4694
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人