
深度学习
文章平均质量分 92
深度学习理论知识
璇焱如柳
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
FCOS长文详解
FCOS是一种one-stage、全卷积(Fully Convolutional)结构的目标检测模型,发表于2019年ICCV。什么是one-stage?作者的源码有些复杂,我找了一个简单的版本,作为本文的详解代码。FCOS不同于在此之前热门的anchor based方法(比如R-CNN系列),没有设置anchor boxes来作为目标的候选区域,而是使用全卷积网络,结合FPN,直接拿去做检测,实现了anchor free,并达到了当时的state-of-art。原创 2024-05-12 21:33:06 · 3393 阅读 · 0 评论 -
对RPN网络的理解
RPN, Reigion Proposal Network, 中文名称为候选区域提取网络,最早在faster RCNN一文中提出,用于提取目标候选框。原创 2024-04-11 22:36:44 · 1036 阅读 · 0 评论 -
FPN(Feature Pyramid Network)详解
FPN,全名Feature Pyramid Networks,中文称为特征金字塔网络。它是2017年cvpr上提出的一种网络,主要解决的是目标检测中的多尺度问题。FPN通过简单的网络连接改变,在基本不增加原有模型计算量的情况下,大幅度提升了小物体检测的性能。原创 2024-04-10 22:17:00 · 11592 阅读 · 1 评论 -
输入归一化、批量归一化(BN)与层归一化(LN)
1、输入归一化在机器学习里使用线性分类器的时候,比如y=w0+w1x1+w2x2…我们需要先将特征x1、x2…进行归一化,因为如果w1取值范围[100,1000],而w2取值范围只有[0.1,1],会使得w1在分类过程中起主导作用,这并不是我们希望的。虽然神经网络可以通过参数的调整来适应不同特征的取值范围,但是会导致训练效率比较低。不同输入特征的取值范围差异比较大时,会影响到梯度下降法的效率...原创 2020-04-07 15:20:58 · 19697 阅读 · 2 评论 -
梯度下降法(BGD)、随机梯度下降法(SGD)、小批量梯度下降法(MBGD)以及batch size
梯度下降法(BGD)、随机梯度下降法(SGD)、小批量梯度下降法(MBGD)之间的关系及batch size如何选取我们都知道,神经网络在更新权值的时候需要先求得损失函数,再由损失函数求得各参数的梯度进行更新,这里就涉及一个问题:用多少个训练样本去计算损失函数呢?这个数量就是我标题里的batch size,直观上讲的话,梯度下降法、随机梯度下降法和小批量梯度下降法之间的差异就是因为batch s...原创 2020-04-07 20:34:09 · 1712 阅读 · 0 评论