论文笔记(FoveaBox)-2019-FoveaBox: Beyond Anchor-based Object Detector

本文提出无锚框目标检测框架 FoveaBox,它直接学习对象存在可能性和边界框坐标,解决了传统锚框法的缺点。在 COCO 检测基准上,FoveaBox 实现了单模型 42.1 AP 的先进性能,对边界框分布更稳健,还能生成高质量区域建议。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

FoveaBox: Beyond Anchor-based Object Detector

Tao Kong1   Fuchun Sun1   Huaping Liu1   Yuning Jiang2   Jianbo Shi3
Department of Computer Science and Technology, Tsinghua University, Beijing National Research Center for Information Science and Technology (BNRist), 3 ByteDance AI Lab University of Pennsylvania

taokongcn@gmail.com, ffcsun,hpliug@tsinghua.edu.cn, jiangyuning@bytedance.com, jshi@seas.upenn.edu

论文获取:https://arxiv.org/pdf/1904.03797v1.pdf


目录

FoveaBox: Beyond Anchor-based Object Detector

1. Introduction

2. Related work

(1)Classic Object Detectors

(2)Modern Object Detectors

3. FoveaBox

3.1. Feature Pyramid Network Backbone

3.2. Scale Assignment

3.3. Object Fovea

3.4. Box Prediction

3.5. Optimization

3.6. Inference

4. Experiments

4.1. Ablation Study

(1)Various anchor densities and FoveaBox

(2)Analysis of Scale Assignment

(3)FoveaBox is more robust to box distributions

(4)Per-class difference

(5)Generating high-quality region proposals

(6)Across model depth and scale

4.2. Main Results

5. More Discussions to Prior Works

(1)Score Mask for Text Detection

(2)Guided-Anchoring [45]

(3)FSAF [51]

(4)CornerNet [26]

6. Conclusion


Abstract:我们提出了一个精确、灵活和完全无锚框的目标检测框架 FoveaBox。虽然几乎所有最先进的目标检测器都使用预定义的锚来枚举可能的位置、比例和纵横比来搜索对象,但是它们的性能和泛化能力也受到锚的设计的限制。相反,FoveaBox 直接学习对象存在的可能性和没有锚框参考的边界框坐标。实现方法:(a) 预测对象存在可能性的类别敏感语义映射(category-sensitive semantic maps),(b) 为每个可能包含对象的位置生成类别无关的边界框(category-agnostic bounding box)。目标框的尺度自然与每个输入图像的特征金字塔表示相关联。

在没有附加功能的情况下,FoveaBox 在标准的 COCO 检测基准上实现了最先进的单模型性能 42.1 AP。特别是对于任意长径比的目标,与基于锚的检测器相比,FoveaBox 带来了显著的改进。更令人惊讶的是,当它受到拉伸测试图像的挑战时,FoveaBox 对边界框形状的变化分布具有很强的鲁棒性和泛化能力。代码将公开发布。

 


1. Introduction

目标检测需要解决两个主要任务:识别和定位。给定任意图像,目标检测系统需要确定是否存在来自预定义类别的语义对象实例,如果存在,则返回空间位置和范围。为了将定位功能添加到通用目标检测系统中,滑动窗口方法多年来一直是[25][7]首选方法。

最近,深度学习技术已经成为从数据[43][16]自动学习特征表示的强大方法。R-CNN [12]和 Fast RCNN [11]使用了数千个分类独立的区域建议来减少图像的搜索空间。区域建议(region proposal)生成阶段随后被基于锚的区域建议网络 ( Region Proposal Networks,RPN ) 所取代[40]。从那时起,锚框被广泛用作一个通用组件,用于搜索现代目标检测框架可能感兴趣的区域。简而言之,锚框法建议将盒子(box)空间 ( 包括位置、尺度、长宽比 ) 划分为离散的箱子,并在相应的箱子中细化目标箱子/框。大多数最先进的检测器依赖于锚盒/框来枚举目标对象[30]的可能位置、比例和纵横比。锚框是为两级检测器(Faster RCNN [40], FPN [27])预测建议(proposal)或为单级检测器(SSD [31], RetinaNet [28])预测最终边界框的,回归参考和分类候选项。然而,锚盒可以被看作是一种功能共享的滑动窗口方案,用于覆盖对象的可能位置。

但是,使用锚框或(候选框)有一些缺点:1)首先,锚框引入了设计选择的额外超参数。在设计锚框时,最重要的因素之一是它覆盖目标位置空间的密度。为了获得良好的召回率,这些 anchor 是根据训练/验证集计算的统计数据精心设计的。2)其次,基于特定数据集的设计选择并不总是适用于其他应用程序,这损害了[46]通用性。例如,anchors 通常是方形的用于人脸检测。而行人检测则需要更多的 tall anchors。3)第三,由于在图像中有大量的候选对象位置,密集的目标检测器通常依赖于有效的技术来处理前景-背景(foreground-background)类别不平衡的挑战[28][23][41]。

改进锚生成过程的一个选择是使其更加灵活。最近,有一些成功的工作试图提高锚框[46][45][49]的能力。在 MetaAnchor [46]中,锚函数是由任意自定义的先验框动态生成的。Guided-Anchoring 方法[45]联合预测了可能存在物体中心的位置以及不同位置的尺度和纵横比。在[49]中,作者还建议动态学习锚的形状。然而,这些工作仍然依赖于枚举可能的尺度和纵横比来优化模型。在 MetaAnchor 中,锚函数的输入是具有不同长径比和尺度的规则采样锚。在 Guided-Anchoring 中,假设每个锚的中心是固定的,并对(w, h)的多个对进行采样来近似以对应位置为中心的最佳形状。

相比之下,人类视觉系统不需要任何预定义的形状模板[1],就可以根据视觉皮层图(visual cortex map)识别实例在空间中的位置并预测边界。换句话说,我们人类在不枚举候选框的情况下,自然地识别出视觉场景中的对象。受此启发,一个直观的问题是,锚盒方案是指导搜索对象的最佳方法吗? 如果答案是否定的,我们是否可以设计一个准确的目标检测框架,而不依赖于 anchors 或候选框? 如果没有候选的锚框,人们可能会认为需要使用复杂的方法才能获得类似的结果。然而,我们展示了一个令人惊讶的简单和灵活的系统可以匹配之前最先进的目标检测性能,而不需要候选框。

为此,我们提出了一个完全无锚框(anchor-free)的目标检测框架 FoveaBox。FoveaBox 源自人眼的 fovea(尤指视网膜的中央凹):视野 ( 物体 ) 的中心具有最高的视觉敏锐度。FoveaBox 联合预测对象的中心区域可能存在的位置以及每个有效位置的边界框。由于[27]的特征金字塔表示,不同尺度的物体自然可以从多个层次的特征中检测出来。为了验证提出的检测方案的有效性,我们结合了特征金字塔网络的最新进展和我们的检测头(detection head),形成了 FoveaBox 框架。在没有附加功能的情况下,FoveaBox 在 COCO 目标检测任务[29]上获得了最先进的单模型结果。我们最好的单模型,基于 ResNeXt-101-FPN 主干,实现了 COCO test-dev AP 为 42.1,超过了之前发布的大多数基于锚的单模型结果。

由于FoveaBox在训练阶段和推断阶段都不依赖于默认的锚,所以它对边界框的分布更加稳健。为了验证这一点,我们手工拉伸了验证集的图像和注释,并将 FoveaBox 的稳健性与之前基于锚的模型[28]进行了比较。在这种设置下,FoveaBox 在很大程度上优于基于锚的方法。我们相信 FoveaBox 的简单的训练/推理方式,以及灵活性和准确性将有利于今后对目标检测及相关课题的研究。

 


2. Related work

 

(1)Classic Object Detectors

在深度CNNs成功之前,广泛使用的检测系统是基于独立组件 ( HOG [5]、SIFT [33]等 ) 的组合。DPM [8]及其变体有助于将目标检测器扩展到更一般的对象类别,并在多年的研究中取得了领先的结果。滑动窗口方法是经典目标检测框架中搜索感兴趣对象的主要检测范式。

 

(2)Modern Object Detectors

现代目标检测器一般分为两类:两阶段,基于建议/提案的检测器(two-stage, proposal driven detectors);一阶段,无建议的方法(one-stage, proposal free methods)。对于两阶段检测器,第一阶段生成稀疏的对象建议集,第二阶段对建议集进行分类,并用滑动窗口的方式细化坐标。该管道首先由 R-CNN [12]验证其有效性,并在之后的[15][11]两阶段方法中得到广泛应用。在 Faster R-CNN [40]中,第一阶段 ( RPN ) 通过一个轻量级网络同时预测每个预定义的滑动窗口锚的对象边界和对象得分。为了提高检测器的性能,已经进行了一些尝试,包括特征金字塔(feature pyramid)[27][24][21],多尺度(multiscale)[44][34],对象关系(object relations)[17]等。

与两阶段方法相比,单阶段管道跳过对象建议生成,并在一次评估中预测边界框和类别得分。大多数顶级单级检测器依赖于锚盒来枚举目标对象的可能位置 ( 例如 SSD [31], DSSD [9], YOLOv2/v3 [38][39]和 RetinaNet [28] )。在 CornerNet [26]中,作者提出了将对象边界框检测为一对关键点。CornerNet 采用关联嵌入(Associative Embedding)[35]技术来分离不同的实例。之前的一些工作与我们的工作有相似之处,我们将在第5节中更详细地讨论它们。

 


3. FoveaBox

FoveaBox 是一个单一的、统一的网络,由一个主干网络和两个特定于任务的子网络组成。主干网络负责计算整个输入图像上的卷积特征图,是一个现成的卷积网络。第一个子网对主干的输出按像素进行分类;第二个子网络对相应的位置执行边界框预测。虽然这些组件的细节有许多可能的选择,但为了简单和公平的比较,我们采用了 RetinaNet 的设计[28]。

 

3.1. Feature Pyramid Network Backbone

我们采用特征金字塔网络 ( FPN ) [27]作为后续检测的骨干网络。通常,FPN使用具有横向连接的自顶向下体系结构,从单尺度输入构建网络内特征金字塔。金字塔的每一层都可以用来检测不同尺度的物体。我们构造了一个层级为 \left \{ P_{l} \right \} 的金字塔,l=3, 4, ... , 7,其中 l 表示金字塔层级。P_{l} 对输入的分辨率为 1/2^{l}。所有金字塔级别都有 C=256 个通道。有关 FPN 的更多细节,请参考[27][28]。

 

3.2. Scale Assignment

虽然我们的目标是预测目标对象的边界,但是由于目标对象的尺度变化较大,直接预测这些数字并不稳定。相反,我们根据特征金字塔层的数量将对象的尺度划分为几个箱子(bins)。每层金字塔有一个基本面积, P_{3}P_{7} 层的基本面积从 32^{2} 到 512^{2} 不等。对于level P_{l},基本面积 S_{l} 是:

类似于基于 ResNet 的 Faster R-CNN系统使用 C4 作为单尺度 feature map,我们将 S_{0} 设为 16 [40]。在 FoveaBox 中,每层特征金字塔学会对特定尺度的对象做出响应。金字塔 level l 上目标框的有效尺度范围为:

其中,依据经验设置 \eta 来控制每层金字塔的尺度范围在训练过程中忽略不在相应尺度范围内的目标对象。注意,一个对象可能被网络的多层金字塔检测到,这与以前只将对象映射到一层特征金字塔[27][14]的做法不同。

 

3.3. Object Fovea

每层金字塔的热图(pyramidal heatmaps)输出设置有 K 个通道,其中 K 为类别数,大小为 H×W (图4)。每个通道都是一个二进制掩码,表示一个类存在的可能性。给定一个有效的 ground-truth 框,表示为 ( x_{1}, y_{1}, x_{2}, y_{2} )。我们首先用 stride 为 2^{l} 将该框映射到目标特征金字塔 P_{l} 中:

分数图上四边形的正极性区域(positive area,fovea)R^{pos}=( x_{1}^{''}, y_{1}^{''}, x_{2}^{''}, y_{2}^{''} ) 设计为原始四边形的缩小版(如图3所示):

其中,\sigma _{1} 是收缩因子。正极性区域内的每个单元格(cell),都用相应的训练的目标类标签进行注释。负样本的定义,我们引入另一个收缩因子 \sigma _{2} 使用 公式(4) 生成 R^{neg}负极性区域是整个 feature map 中除去 R^{neg} 的区域。如果一个单元(cell)没有被分配,它将在训练期间被忽略。正极性区域通常只占整个 feature map 的一小部分,因此我们使用 Focal loss [28]来训练这个分支的目标 L_{cls}

 

3.4. Box Prediction

对象中心(object fovea)只编码目标对象存在的可能性。要确定位置,模型必须预测每个潜在实例的边界框。每个 ground-truth 边界框都以 G=( x_{1}, y_{1}, x_{2}, y_{2} ) 的方式指定。我们的目的是学习将 feature maps 中单元格 ( x, y ) 处的网络位置输出 \left ( t_{x_{1}}, t_{y_{1}}, t_{x_{2}}, t_{y_{2}} \right ),映射到 ground-truth 框 G 的转换

其中,z=\sqrt{S_{l}} 是将输出空间投影到以1为中心的空间的归一化因子,使得目标的学习更容易、更稳定。这个函数首先将坐标 ( x, y ) 映射到输入图像,然后计算投影坐标与 G 之间的归一化偏移量。最后利用对数空间函数(log-space function)对目标进行正则化。为了简单起见,我们采用了广泛使用的 Smooth L1 loss [40]来训练框的预测 L_{box}。优化目标后,可以在输出特征图上为每个正极性单元格 ( x, y ) 生成框的边界。我们注意到,在现代深度学习框架[36][4]中,公式(5) 及其逆变换可以通过 element-wise layer(元素层)很容易地实现。

 

3.5. Optimization

FoveaBox 是用随机梯度下降 ( stochastic gradient descent,SGD ) 训练的。我们在 4 个 GPU 上同步使用 SGD,每个小批处理(minibatch)共 8 张图像 ( 每个 GPU 2张图像 )。除非另有说明,所有模型都经过 270k 次迭代的训练,初始学习率为 0.005,然后在 180k 迭代时除以 10,在 240k 迭代时再除以 10。权重衰减为 0.0001,动量为 0.9。除了标准的水平图像翻转,我们还利用随机纵横比抖动(random aspect ratio jittering)来减少过拟合。当定义 R^{pos} 和 R^{neg} 时,我们设置 \sigma _{1}=0.3\sigma _{2}=0.4R^{neg} 中的每个单元格都用相应的位置目标进行标注,用于边界框的训练。

 

3.6. Inference

在推理过程中,我们首先使用一个0.05的置信度阈值过滤掉低置信度的预测。然后,我们从每个预测层中选择得分前1000的框。接着,对每个类分别应用阈值为0.5的非最大抑制 ( non-maximum suppression, NMS )。最后,为每个图像选择得分前100的预测。这个推理设置与Detectron基线[13]完全相同。尽管有更智能的方法来执行后处理,例如 bbox voting [10]、Soft-NMS [2]或测试时图像增强,为了保持简单性并与基线模型进行公平比较,我们在这里不使用这些技巧。

 


4. Experiments

给出了具有挑战性的 COCO 基准[29]边界框检测轨迹的实验结果。对于训练,我们遵循常规惯例[14][28],并使用COCO trainval35k split(结合来自 train 的 80k 图像,和一个来自 40k 图像 val split 的随机的 35k 的子集图像)。我们通过在 minival split(其余 5k 图像来自val)上评估,报告损害和敏感性研究(lesion and sensitivity studies)。对于我们的主要结果,我们报告了 test-dev split 的 COCO AP,它没有公共标签,并且需要使用评估服务器。

 

4.1. Ablation Study

 

(1)Various anchor densities and FoveaBox

在基于锚的检测系统中,最重要的设计因素之一是它覆盖含有可能图像框的空间的密集程度。由于基于锚的检测器采用固定采样网格,这些方法中实现框(boxes)的高覆盖率的一种常用方法是在每个空间位置使用多个 anchors [27][28]来覆盖不同尺度和长宽比的 boxes。人们可能会期望,当我们在每个位置上附加更密集的锚时,总是可以获得更好的性能。为了验证这一假设,我们将 RetinaNet 中,每个空间位置和每个金字塔级别使用的尺度和纵横比 anchors 数量进行扩展,包括每个位置的一个 square anchor 到每个位置的 12 个 anchors( 表1(a) )。增加超过 6 - 9 个 anchors 不会显示进一步的收益。性能 w.r.t. 密度的饱和意味着手工制作的、密度过大的 anchors 没有优势

过密的 anchors 不仅增加了前景-背景优化的难度,而且容易造成位置定义模糊的问题。对于每个输出空间位置,都有 A 个 anchor,其标签由与 ground-truth 的 IoU 定义。其中,一些 anchors 被定义为正样本,另一些 anchors 被定义为负样本。但是它们共享相同的输入特性。分类器不仅要区分不同位置的样本,还要区分同一位置的不同 anchors。

相比之下,FoveaBox 在每个位置明确地预测一个目标,其性能并不比最好的基于锚的模型差。目标的标签是由它是否在对象的边框内定义的。与基于锚的方案相比,FoveaBox 具有几个优点:1)由于我们在每个位置只预测一个目标,因此输出空间减小为基于锚的方法的 1/A,其中 A 为每个位置的 anchor 个数。由于减少了前景-背景分类的难度,使得求解器更容易对模型进行优化。2)不存在模糊问题,优化目标更加直观。3)FoveaBox 更加灵活,因为我们不需要广泛地设计锚,就可以看到更好的选择。

 

(2)Analysis of Scale Assignment

在 公式(2) 中,\eta 控制每层金字塔的尺度分配范围。当 \eta =\sqrt{2} 时,将目标尺度划分为不重叠的箱子,每个箱子由相应的特征金字塔进行预测。随着 \eta 增加,每层金字塔将响应对象的多个尺度。表2 显示了 \eta 对最终的检测性能的影响。我们为所有其他实验设置 \eta=2

 

(3)FoveaBox is more robust to box distributions

与传统的预定义锚策略不同,FoveaBox 的主要优点之一是对边界框的鲁棒预测。为了验证这一点,我们进行了两个实验来比较不同方法的定位性能。在第一个实验中,我们根据 ground-truth 纵横比 U=\left \{ u_{i}=min\left ( \frac{h_{i}}{w_{i}}, \frac{w_{i}}{h_{i}} \right ) \right \}i=1, ... , N ,将验证集中的框分为三组,其中 N 是数据集中的实例数。我们比较了不同纵横比阈值下的 FoveaBox 和 RetinaNet,如 表1(b) 所示。这里,* 意味着用长宽比抖动来训练模型。我们发现,当 u 值较低时,两种方法的性能都最好。虽然当 u 增加时,FoveaBox 的性能也会下降,但它比基于锚的 RetinaNet 要好得多。

为了进一步验证不同方法对边界框的鲁棒性,我们手工拉伸了验证集中的图像和注释,并测验了不同检测器的行为。图5 为不同 h/w 拉伸阈值下的定位性能。在 h/w=1 的评价准则下,两个检测器的性能差距相对较小。随着拉伸阈值的增大,差距开始增大。具体来说,当将 h/w 拉伸 3 倍时,FoveaBox 得到的 AP为 21.3,这比相对的 RetinaNet 好 3.7 分。

基于锚的方法依赖于使用带有锚(anchor)参考的框(box)回归来生成最终的边界框。在实际应用中,回归器是为正样本锚框(positive anchors)训练的,破坏了预测形状更任意的目标的通用性。在 FoveaBox 中,每个预测位置都不与特定的参考形状相关联,它直接预测目标的 ground-truth 框。由于 FoveaBox 允许任意的纵横比,它能够更好地捕捉那些非常高或非常宽的对象。参见 图6 中的一些定性示例。

 

(4)Per-class difference

图2 显示了 FoveaBox 和 RetinaNet 的每个类别的 AP 差异。它们都具有 ResNet-50-FPN 主干和 800 的输入尺度。纵轴表示 AP_{FoveaBox} - AP_{RetinaNet} 。FoveaBox 在大多数类中都有改进,特别是对于那些边界框可能更加任意的类。对于类:toothbrush,fork,sports ball,snowboard,tie 和 train,AP 的改进幅度大于 5 分。

 

(5)Generating high-quality region proposals

将分类目标(classification target)更改为类不可知的头(class-agnostic head)非常简单,并且可以生成区域建议。我们将建议/提案性能与区域建议网络 ( RPN ) [40]进行比较,并对 COCO minival 数据集上不同建议数量的平均召回率 ( AR ) 进行评估,如 表1(c) 所示。

令人惊讶的是,在所有的标准中,我们的方法对比 RPN 基线有很大的优势。具体来说,在前100个区域建议中,FoveaBox 获得的 AR 为 53.0,比 RPN 高出 8.5 分。这验证了我们的模型在生成高质量区域建议方面的能力。

 

(6)Across model depth and scale

表3 显示了使用不同主干网络和输入分辨率的 FoveaBox。推理设置与 RetinaNet 完全相同,速度也与相应的基线相当。

如 表3 所示,FoveaBox 在 RetinaNet 基线上持续改进了 1 ~ 2 个点。在分析小、中、大对象尺度下的性能时,我们发现改进来自于对象的所有尺度

 

4.2. Main Results

我们将 FoveaBox 与 表4 中最先进的目标检测方法进行了比较。我们的模型的所有实例化都优于以前最先进模型的基线变体。表4 中的第一组检测器为两级(two-stage)检测器,第二组为一/单级(one/single-stage)检测器,最后一组为 FoveaBox 检测器。在所有评价指标下,FoveaBox 都优于 ResNet-101 主干下的所有单级检测器。其中包括最近的一级检测器 CornerNet [26]。FoveaBox 还优于大多数两级探测器,包括 FPN [27]和 Mask R-CNN [14]。

两级检测器利用区域子网络对稀疏区域建议进一步分类。Cascade RCNN 将两阶段方案扩展到多个阶段,进一步细化区域。由于FoveaBox 还可以通过将模型头部更改为类无关方案来生成区域建议 ( 表1(c) ),因此我们认为它可以进一步提高两级检测器的性能,这超出了本文的重点。

 


5. More Discussions to Prior Works

在结束之前,我们调查了 FoveaBox 和之前的一些作品之间的关系和区别。

 

(1)Score Mask for Text Detection

分数掩码技术在文本检测领域得到了广泛的应用[48][18][50]。这些工作通常利用全卷积网络[32]来预测目标场景文本和四边形的存在。与场景文本检测相比,通用目标检测面临着更多的遮挡、多类分类和尺度问题,具有更大的挑战性。单纯地将文本检测方法应用到通用目标检测中,往往会导致性能低下。

 

(2)Guided-Anchoring [45]

它联合预测了感兴趣的对象中心可能存在的位置,以及以相应位置为中心的比例尺和纵横比。如果 \left ( x, y \right ) 不在目标中心,检测到的框将不是最优框。Guided-Anchoring 依靠中心点给出最佳预测。相反,FoveaBox 为每个前景位置预测对象的(左、上、右、下)边界,这更具有鲁棒性(robust)

 

(3)FSAF [51]

这是 FoveaBox 的同时期作品。它也试图直接预测目标对象的边界框。FoveaBox 与 FSAF 之间的区别是:1)FSAF 通过在线特性选择模块为每个实例和 anchors 选择合适的特性。而在 FoveaBox 中,一个特定尺度的实例同时被相邻的金字塔优化,由式(2)决定,更加简单和鲁棒。2)为了优化框的边界,FSAF 利用了 IoU-Loss [47]最大限度地提高预测框和 ground-truth 之间的 IOU。而在 FoveaBox 中,我们使用 Smooth L1 loss 直接预测四个边界,这更加简单直观。3)与 FSAF 相比,FoveaBox 的性能要好得多,如 表5 所示。

 

(4)CornerNet [26]

CornerNet 提出通过左上角和右下角的关键点对检测对象。CornerNet 的关键步骤是识别哪些关键点属于同一个实例,并正确地对它们进行分组。相反,在 FoveaBox 中实例类和边界框关联在一起。我们直接预测框和类,不使用任何分组方案来分隔不同的实例

 


6. Conclusion

我们提出了用于通用目标检测的 FoveaBox。通过同时预测目标的位置和相应的边界,FoveaBox 给出了一种不需要先验候选框的目标检测方法。我们在标准基准上证明了它的有效性,并报告了广泛的实验分析。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值