
翻译
文章平均质量分 95
异想天开的长颈鹿
这个作者很懒,什么都没留下…
展开
-
【翻译】【PANet】Path Aggregation Network for Instance Segmentation
信息在神经网络中的传播方式是非常重要的。在本文中,我们提出了路径聚合网络(PANet),旨在提高基于proposal的实例分割框架中的信息流。具体来说,我们通过自下而上的路径增强来提高整个特征层次的准确定位信号,从而缩短了低层和最顶层特征之间的信息路径。我们提出了自适应特征池,它将特征网格和所有的特征层次联系起来,使每个层次的有用信息直接传播到下面的proposal子网络。为每个proposal创建了一个捕捉不同观点的补充分支,以进一步改善掩码预测。这些改进很容易实现,但有细微的额外计算开销。翻译 2023-02-14 19:52:48 · 737 阅读 · 0 评论 -
【翻译】【FPN】Feature Pyramid Networks for Object Detection
特征金字塔是识别系统中检测不同尺度目标的一个基本组成部分。但最近的深度学习目标检测器避免了金字塔表示,部分原因是它们是计算和内存密集型的。在本文中,我们利用深度卷积网络固有的多尺度、金字塔式的层次结构,以边际的额外成本构建特征金字塔。我们开发了一个带有横向连接的自上而下的架构,用于在所有尺度上构建高级语义特征图。这种架构被称为特征金字塔网络(FPN),作为一种通用的特征提取器,在一些应用中显示出明显的改进。翻译 2023-01-12 22:07:36 · 727 阅读 · 0 评论 -
【翻译】【SPPNet】Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition
我们正在见证视觉界的快速、革命性的变化,主要是由深度卷积神经网络(CNN)[18]和大规模训练数据的可用性[6]引起的。基于深度网络的方法最近在图像分类[16,31,24]、目标检测[12,33,24]、许多其他识别任务[22,27,32,13],甚至非识别任务方面的技术水平上有了很大提高。然而,在CNN的训练和测试中存在一个技术问题:主流的CNN需要一个固定的输入图像尺寸(例如224×224),这就限制了输入图像的长宽比和比例。翻译 2023-01-11 19:36:16 · 468 阅读 · 0 评论 -
【翻译】DiffusionDet: Diffusion Model for Object Detection
我们提出了DiffusionDet,这是一个新的框架,它将目标检测表述为从噪声框到目标框的去噪扩散过程。在训练阶段,目标框从真实框扩散到随机分布,模型学会逆转这个噪声过程。在推理中,模型以渐进的方式将一组随机生成的框细化为输出结果。对包括MS-COCO和LVIS在内的标准基准的广泛评估表明,与之前成熟的检测器相比,DiffusionDet实现了良好的性能。我们的工作在目标检测方面带来了两个重要发现。首先,随机框虽然与预定义锚点或学习queries有很大不同,但也是有效的候选目标。翻译 2023-01-03 21:35:34 · 666 阅读 · 0 评论 -
【翻译】YOLOX: Exceeding YOLO Series in 2021
在这份报告中,我们对YOLO系列进行了一些有经验的改进,形成了一个新的高性能检测器–YOLOX。我们将YOLO检测器转换为无锚方式,并进行其他先进的检测技术,即解耦头和领先的标签分配策略SimOTA,在大规模的模型范围内获得最先进的结果。对于只有0.91M参数和1.08G FLOPs的YOLONano,我们在COCO上得到25.3%的AP,超过NanoDet 1.8%的AP;对于YOLOv3,工业界最广泛使用的检测器之一,我们在COCO上将其AP提升到47.3%,比目前的最佳实践高出3.0% AP;翻译 2022-11-08 21:40:28 · 508 阅读 · 0 评论 -
【翻译】Coordinate Attention for Efficient Mobile Network Design
最近关于移动网络设计的研究表明,通道注意力(如压缩和激励注意力(SE注意力))对提高模型性能有显著的效果,但它们通常忽略了位置信息,而位置信息对产生空间选择性注意力图很重要。在本文中,我们提出了一种新的移动网络注意力机制,这种注意力机制将位置信息嵌入到通道注意力中,我们称之为 “坐标注意力”。与通过二维全局池化将特征张量转化为单一特征向量的通道注意力不同,坐标注意力将通道注意力分解为两个一维特征编码过程,分别沿两个空间方向汇集特征。翻译 2022-10-20 16:10:16 · 911 阅读 · 0 评论 -
【翻译】【YOLOv3】YOLOv3: An Incremental Improvement
我们提出了对YOLO的一些更新!我们做了一些设计上的小改动,使它变得更好。我们还训练了这个新的网络,这个网络非常棒。它比上次大了一点,但更准确。不过不用担心,它仍然很快。在320×320320×320320×320的情况下,YOLOv3在28.2mAP的情况下运行22毫秒,与SSD一样准确,但速度快三倍。当我们看旧的.5 IOU mAP检测指标时,YOLOv3相当不错。翻译 2022-09-30 17:44:42 · 421 阅读 · 0 评论 -
【翻译】【YOLOv2】YOLO9000: Better, Faster, Stronger
我们介绍了YOLO9000,一个最先进的实时目标检测系统,可以检测超过9000个物体类别。首先,我们提出了对YOLO检测方法的各种改进,这些改进既是新的,也是来自先前的工作。改进后的模型,YOLOv2,在标准检测任务(如PASCAL VOC和COCO)上是最先进的。使用一种新的、多尺度的训练方法,同一个YOLOv2模型可以在不同的规模下运行,在速度和准确性之间提供了一个简单的权衡。在67FPS时,YOLOv2在VOC 2007上得到76.8mAP。翻译 2022-09-27 15:03:45 · 261 阅读 · 0 评论 -
【翻译】【YOLOv1】You Only Look Once: Unified, Real-Time Object Detection
我们提出了YOLO,一种检测目标的新方法。之前关于目标检测的工作重新利用分类器来进行检测。相反,我们把目标检测看作是一个回归问题,回归到空间上分离的边界框和相关的类别概率。一个单一的神经网络在一次评估中直接从完整的图像中预测边界框和类别概率。由于整个检测管道是一个单一的网络,它可以直接对检测性能进行端到端的优化。我们的统一架构是非常快的。我们的基本YOLO模型以每秒45帧的速度实时处理图像。翻译 2022-09-27 09:44:11 · 627 阅读 · 0 评论 -
【翻译】【R-CNN】Rich feature hierarchies for accurate object detection and semantic segmentation
过去的几年里,在典型的PASCAL VOC数据集上测量的目标检测性能已经趋于平稳。表现最好的方法是复杂的组合系统,通常将多个低层次的图像特征与高层次的背景相结合。在本文中,我们提出了一种简单的、可扩展的检测算法,相对于VOC 2012上的最佳结果,该算法的平均精度(mAP)提高了30%以上,达到了53.3%。我们的方法结合了两个关键的见解:(1)我们可以将大容量的卷积神经网络(CNN)应用于自下而上的region proposals,以便对目标进行定位和分割;翻译 2022-09-15 16:08:56 · 365 阅读 · 0 评论 -
【翻译】【ZFNet】Visualizing and Understanding Convolutional Networks
大型卷积网络模型最近在ImageNet基准测试中表现出令人印象深刻的分类性能,如Krizhevsky等人(AlexNet)[18]。然而,对于它们为何表现如此出色,或如何改进它们,还没有明确的认识。在本文中,我们探讨了这两个问题。我们引入了一种新的可视化技术,使人们能够深入了解中间特征层的功能和分类器的运作。在诊断的作用下,这些可视化技术使我们能够找到在ImageNet分类基准上表现优于Krizhevsky等人的模型架构。我们还进行了一项消融研究,以发现不同模型层的性能贡献。翻译 2022-09-11 15:59:31 · 309 阅读 · 0 评论 -
【翻译】【VGGNet】VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
在这项工作中,我们研究了卷积网络深度对其在大规模图像识别环境中的准确性的影响。我们的主要贡献是使用一个具有非常小的(3×3)卷积滤波器的架构对深度增加的网络进行了彻底的评估,这表明通过将深度推到16-19个权重层可以实现对先有技术配置的显著改善。这些发现是我们提交2014年ImageNet挑战赛的基础,我们的团队分别获得了定位和分类赛道的第一和第二名。我们还表明,我们的表征在其他数据集上有很好的通用性,它们在那里取得了最先进的结果。1模型,以促进进一步的研究。本文的其余部分组织如下。...翻译 2022-07-25 00:23:16 · 400 阅读 · 0 评论 -
【翻译】【AlexNet】ImageNet Classification with Deep Convolutional Neural Networks
我们训练了一个大型的深度卷积神经网络,将ImageNetLSVRC-2010竞赛中的120万张高分辨率图像分类到1000个不同的类别。在测试数据上,我们取得了37.5%和17.0%的Top-1和Top-5错误率,大大优于以前的最先进水平。该神经网络有6000万个参数和65万个神经元,由5个卷积层组成,其中一些后面跟着最大池化层,还有3个全连接层,最后是1000路的softmax。为了使训练更快,我们使用了非饱和神经元和一个非常高效的GPU实现卷积操作。目前的目标识别方法对机器学习方法的使用至关重要。...翻译 2022-07-22 14:52:59 · 372 阅读 · 0 评论 -
【翻译】AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE
AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE翻译 2022-07-04 21:43:16 · 2233 阅读 · 0 评论 -
【翻译】Aggregated Residual Transformations for Deep Neural Networks
Aggregated Residual Transformations for Deep Neural Networks作者:Saining Xie1 Ross Girshick2 Piotr Dollar2 Zhuowen Tu1 Kaiming He21、UC San Diego 2、Facebook AI Research翻译 2022-07-04 19:32:33 · 610 阅读 · 0 评论 -
【翻译】Deep Residual Learning for Image Recognition
Deeper neural networks are more difficult to train. We present a residual learning framework to ease the training of networks that are substantially deeper than those used previously.翻译 2022-07-04 11:19:15 · 408 阅读 · 0 评论 -
【翻译】Attention Is All You Need
论文地址:https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf项目地址:https://github.com/ tensorflow/tensor2tensor翻译 2022-07-02 11:11:40 · 19391 阅读 · 1 评论 -
【翻译】QueryDet: Cascaded Sparse Query for Accelerating High-Resolution Small Object Detection
QueryDet: Cascaded Sparse Query for Accelerating High-Resolution Small Object DetectionQueryDet:用于加速高分辨率小目标检测的级联稀疏查询论文地址:https://arxiv.org/pdf/2103.09136.pdf项目地址:https://github.com/ ChenhongyiYang/QueryDet-PyTorch文章目录摘要1. 介绍2. 相关工作3. 方法3.1. 重新审视RetinaN翻译 2022-04-10 15:52:24 · 2838 阅读 · 0 评论 -
【翻译】Bridging the Gap Between Anchor-based and Anchor-free Detection
【翻译与个人理解】Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection通过自适应训练样本选择弥合基于锚点和无锚点检测之间的差距文章地址:Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection文章目录摘要1翻译 2022-03-29 10:46:14 · 468 阅读 · 0 评论 -
【翻译】FCOS:Fully Convolutional One-Stage Object Detection
目录摘要1.介绍2.Related Work3.Our Approach3.1. Fully Convolutional One-Stage Object Detector3.2. Multi-level Prediction with FPN for FCOS3.3. Center-ness for FCOS4.Experiments4.1. Ablation Study4.1.1 Multi-level Prediction with FPN4.1.2 With or Without Center-ne翻译 2022-03-29 10:41:15 · 584 阅读 · 0 评论 -
【翻译】CSPNet: A New Backbone that can Enhance Learning Capability of CNN
文章目录摘要1.介绍2.相关工作3.方法3.1.跨阶段局部网络3.2.精确融合模型4.实验4.1. 实施细则4.2. 消融实验4.3. ImageNet图像分类4.4. MS COCO目标检测4.5. 分析5.结论论文链接:https://openaccess.thecvf.com/content_CVPRW_2020/papers/w28/Wang_CSPNet_A_New_Backbone_That_Can_Enhance_Learning_Capability_of_CVPRW_2020_paper翻译 2021-12-26 10:46:31 · 761 阅读 · 0 评论 -
【翻译】 Masked Autoencoders Are Scalable Vision Learners
文章目录摘要1.介绍2.相关工作3.方法4.Imagenet实验4.1. 主要属性4.2. 与之前结果的比较4.3. 局部微调5.迁移学习实验6.讨论与结论论文链接:https://arxiv.org/pdf/2111.06377v3.pdf摘要本文表明,掩码自编码器(MAE)是用于计算机视觉的可扩展自监督学习器。我们的MAE方法很简单:我们屏蔽输入图像的随机块并重建丢失的像素。它基于两个核心设计。首先,我们开发了一个非对称编码器-解码器架构,其中一个编码器只对可见的补丁子集进行操作(没有掩码标记),翻译 2021-12-25 18:59:26 · 542 阅读 · 0 评论 -
【翻译】Densely Connected Convolutional Networks
目录摘要1.介绍2.相关工作3.DenseNets4.实验4.1.数据集4.2.训练4.3.CIFAR and SVHN的分类结果4.4.ImageNet的分类结果5.讨论6.结论论文:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8099726摘要 最近的工作表明,如果卷积网络在靠近输入的层和靠近输出的层之间包含更短的连接,则它们可以更深入、更准确、更有效地进行训练。在本文中,我们接受了这一观察并介绍了密集卷积网络(Den翻译 2021-12-17 19:08:33 · 283 阅读 · 0 评论 -
【翻译】An Energy and GPU-Computation Efficient Backbone Network for Real-Time Object Detection
论文链接:https://arxiv.org/pdf/1904.09730.pdf目录摘要1.介绍2. 高效网络设计的因素2.1. 内存访问成本2.2. GPU-计算效率3. 提出的方法3.1. 重新思考密集连接3.2. 一次性聚合3.3. VoVNet的配置4. 实验4.1. 实验装置4.2. DSOD4.3. RefineDet4.4. Mask R-CNN from scratch5. 结论摘要由于DenseNet通过用密集连接聚合它们来保存具有不同感受野的中间特征,因此它在对象检测任务上表现出翻译 2021-12-15 21:29:02 · 803 阅读 · 0 评论