CenterNet2的深入浅出(CVPR2021)

这篇文章解析了2021 CVPR论文CenterNet2的关键贡献,包括使用one-stage算法处理目标检测的第一阶段,通过极大似然估计设计的新损失函数优化两个阶段,并强调了其在减少误报和提升效率上的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

CenterNet2的深入浅出(CVPR2021)

论文地址与代码

论文: https://arxiv.org/abs/2103.07461.
代码: https://github.com/xingyizhou/CenterNet2.

主要贡献

CenterNet2是2021年的一篇CVPR论文,这篇论文读起来比较费解,因为里面牵涉了比较深的数学知识,以至于网上也没有比较好的解说,不过还好,在经过了一系列的资料查找之后,我将尽我最大的能力将下面写得深入浅出一点。
该论文的主要贡献有如下几点:
●作者认为,作为两阶段算法,第一阶段应该用来回归目标并且判断目标是背景的可能性,而传统的两阶段算法中的RPN无法很好地推断这种可能性,但是许多one-stage算法可以。因此,作者使用了常用的one-stage算法作为CenterNet2的第一个阶段。具体点就是,使用one-stage算法来回归框和给框打一个分(就是一个概率),这个分无关类别,只代表是前景还是背景。
●作者利用极大似然估计,设计了一种新的损失函数,这个损失函数是一个极大似然优化,可以同时优化第一阶段的one-stage算法和第二阶段的预测算法。使第一阶段的one-stage算法能够很好地评价目标是背景的可能性,大大减少了低质量推荐框的数量,也能在一定程度上提高推理速度。

贡献解释

One-stage算法,一般的two-stage算法与CenterNet2(Probabilistic two-stage detector)的区别如下图所示。
在这里插入图片描述
其实理解这篇论文的关键难点在于理解作者是如何构建极大似然优化的。下面就详细讲一下这个优化,看它是如何同时优化两个阶段的。

在这里插入图片描述
在这里插入图片描述

### CenterNet 原论文的查找方法 CenterNet 是一种基于关键点检测的目标检测算法,其核心思想是通过预测对象中心的关键点以及宽度和高度来定位目标[^1]。为了找到 CenterNet 的原始论文,可以利用学术搜索引擎或者特定网站进行检索。 #### 使用 ArXiv 进行搜索 ArXiv 是一个开放获取的预印本服务器,许多计算机视觉领域的研究论文都会发布在这里。可以通过访问 `https://arxiv.org` 并输入关键词 **"CenterNet"** 或者更具体的查询条件如 **"object detection using keypoints"** 来寻找相关文档。通常情况下,原作者会在此平台上传他们的初始版本或更新版论文。 如果希望直接链接到可能的结果页面,可尝试以下 URL 构造方式: ```plaintext https://arxiv.org/search/?query=CenterNet&searchtype=all ``` #### 利用 Google Scholar 查找 Google Scholar (`https://scholar.google.com`) 提供了一个强大的工具用于发现科学文献。它不仅索引了来自出版商、大学和其他在线资源的文章,还能够识别引用关系。对于寻找 CenterNet 的原始论文,在搜索框中键入完整的名称 “CenterNet: Keypoint Triplets for Object Detection”,这有助于精确匹配目标文章。 一旦找到了对应的条目,点击进入详情页即可查看摘要、下载 PDF 文件(如果有权限),甚至追踪该工作的后续发展情况及其被其他学者如何应用的情况。 #### 综合建议 当上述两种途径均未果时,还可以考虑查阅会议录或期刊主页。例如 CVPR (Computer Vision and Pattern Recognition),作为顶级国际会议之一,经常收录此类创新性的研究成果。假如已知投稿年份,则进一步缩小范围至具体时间段内的资料集合里去探寻更为高效。 ```python import requests from bs4 import BeautifulSoup def search_paper(keyword, domain="arxiv"): base_url = f"https://{domain}.org" query = keyword.replace(' ', '+') url = f"{base_url}/search/?query={query}&searchtype=all" response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') papers = [] results = soup.find_all("li", class_="arxiv-result")[:5] for result in results: title = result.find("p", class_="title").text.strip() link = result.find("a")['href'] papers.append((title, f"{base_url}{link}")) return papers papers = search_paper("CenterNet") for idx, paper in enumerate(papers, start=1): print(f"{idx}: {paper[0]} - {paper[1]}") ``` 此脚本可以帮助自动化部分过程,提供前几个最相关的搜索结果给用户选择阅读。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NeuroDong

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值