HBase常用知识点

本文详细介绍了HBase,一个分布式、可扩展的NoSQL数据库。内容包括HBase的基本定义、数据模型、逻辑和物理存储结构,以及表的操作、HBase的基本架构和进阶知识如写流程、读流程、Region Split。此外,还涵盖了HBase的Shell操作、与Hive的集成和优化策略,如RowKey设计、内存优化和基础优化设置。

Hbase定义

Hbase定义

Hbase是一种分布式,可扩展,支持海量数据存储的NoSQL数据库

Hbase数据模型

从HBase 的底层物理存储结构(K-V)来看,HBase 更像是一个 multi-dimensional map。

HBase 逻辑结构

在这里插入图片描述

HBase 物理存储结构

在这里插入图片描述

数据模型

Name Space: 命名空间,类似于关系型数据库的 DatabBase 概念,每个命名空间下有多个表。HBase有两个自带的命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表,
default 表是用户默认使用的命名空间。

Region: 类似于关系型数据库的表概念。不同的是,HBase 定义表时只需要声明列族即可,不需
要声明具体的列。这意味着,往 HBase 写入数据时,字段可以动态、按需指定。因此,和关
系型数据库相比,HBase 能够轻松应对字段变更的场景。

Row: HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。

Column: HBase 中的每个列都由 Column Family(列族)和 Column Qualifier(列限定符)进行限
定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。

Time Stamp: 用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入 HBase 的时间。

Cell: 由{rowkey, column Family:column Qualifier, time Stamp} 唯一确定的单元。cell 中的数
据是没有类型的,全部是字节码形式存贮。

HBase 基本架构

在这里插入图片描述
Region Server:

  • Region Server 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下:
    • 对于数据的操作:get, put, delete;
    • 对于 Region 的操作:splitRegion、compactRegion。

Master:

  • Master 是所有 Region Server 的管理者,其实现类为 HMaster,主要作用如下:
    • 对于表的操作:create, delete, alter
    • 对于 RegionServer的操作:分配 regions到每个RegionServer,监控每个 RegionServer
      的状态,负载均衡和故障转移

Zookeeper:

  • HBase 通过 Zookeeper 来做 Master 的高可用、RegionServer 的监控、元数据的入口以及
    集群配置的维护等工作

HDFS:

  • HDFS 为 HBase 提供最终的底层数据存储服务,同时为 HBase 提供高可用的支持。

HBase Shell 操作

表的操作
  • 查看当前数据库中有哪些表:list
  • 创建表:create ‘student’,‘info’
  • 插入数据到表:put ‘student’,‘1001’,‘info:sex’,‘male’
  • 扫描查看表数据: scan ‘student’,{STARTROW => ‘1001’, STOPROW => ‘1001’}
  • 查看表结构:describe ‘student’
  • 更新指定字段的数据: put ‘student’,‘1001’,‘info:name’,'Nick
  • 查看“指定行”或“指定列族:列”的数据:get ‘student’,‘1001’,‘info:name’
  • 统计表数据行数:count ‘student’
  • 删除数据: delete ‘student’,‘1002’,‘info:sex’
  • 清空表数据: truncate ‘student’
  • 删除表
    • 首先需要先让该表为 disable 状态: disable ‘student’
    • 然后才能 drop 这个表:drop ‘student’
  • 变更表信息 :alter ‘student’,{NAME=>‘info’,VERSIONS=>3}

HBase 进阶

架构原理

在这里插入图片描述
StoreFile:

  • 保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个 StoreFile(HFile),数据在每个 StoreFile 中都是有序的。

MemStore:

  • 写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的 HFile。

WAL:

  • 由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。
写流程

在这里插入图片描述写流程:

  • 1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。
  • 2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。
  • 3)与目标 Region Server 进行通讯;
  • 4)将数据顺序写入(追加)到 WAL。
  • 5)将数据写入对应的 MemStore,数据会在 MemStore 进行排序;
  • 6)向客户端发送 ack;
  • 7)等达到 MemStore 的刷写时机后,将数据刷写到 HFile。
MemStore Flush

在这里插入图片描述
MemStore 刷写时机:
1.当某个 memstroe 的大小达到了 hbase.hregion.memstore.flush.size(默认值 128M), 其所在region 的所有 memstore 都会刷写。

当 memstore 的大小达到以下数值时,会阻止继续往该 memstore 写数据。:

  • hbase.hregion.memstore.flush.size(默认值 128M)
  • hbase.hregion.memstore.block.multiplier(默认值 4)

2.当 region server 中 memstore 的总大小达到

  • java_heapsize
  • *hbase.regionserver.global.memstore.size(默认值 0.4)
  • *hbase.regionserver.global.memstore.size.lower.limit(默认值 0.95),

region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写。直到 region server
中所有 memstore 的总大小减小到上述值以下,当 region server 中 memstore 的总大小达到以下数值时,会阻止继续往所有的 memstore 写数据

java_heapsize*hbase.regionserver.global.memstore.size(默认值 0.4)

3.到达自动刷写的时间,也会触发 memstore flush。自动刷新的时间间隔由该属性进行配置 hbase.regionserver.optionalcacheflushinterval(默认 1 小时)。

4.当 WAL 文件的数量超过 hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到 WAL 文件数量减小到 hbase.regionserver.max.log 以下(该属性名已经废弃,现无需手动设置,最大值为 32)。

读流程

在这里插入图片描述
读流程:

  • 1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。
  • 2)访问对应的RegionServer,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。
  • 3)与目标 Region Server 进行通讯;
  • 4)分别在 Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。
  • 5) 将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为 64KB)缓存到Block Cache。
  • 6)将合并后的最终结果返回给客户端
StoreFile Compaction

在这里插入图片描述

  • 由于memstore每次刷写都会生成一个新的HFile,且同一个字段的不同版本(timestamp)和不同类型(Put/Delete)有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile。

  • 为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。Compaction 分为两种,分别是 Minor Compaction 和 Major Compaction。

  • Minor Compaction会将临近的若干个较小的 HFile 合并成一个较大的 HFile,但不会清理过期和删除的数据。

  • Major Compaction 会将一个 Store 下的所有的 HFile 合并成一个大 HFile,并且会清理掉过期和删除的数据

Region Split

默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。

Region Split 时机:
在这里插入图片描述

  • 1.当1个region中的某个Store下所有StoreFile的总大小超过hbase.hregion.max.filesize, 该 Region 就会进行拆分(0.94 版本之前)。
  • 2.当 1 个 region 中 的 某 个 Store 下所有 StoreFile 的 总 大 小 超 过 :
    Min(R^2 * “hbase.hregion.memstore.flush.size”,hbase.hregion.max.filesize"),
    该 Region 就会进行拆分,其中 R 为当前 Region Server 中属于该 Table 的个数(0.94 版本之后)。

HBase API

HBaseAPI

获取 Configuration 对象:

public static Configuration conf;
static{
	//使用 HBaseConfiguration 的单例方法实例化
	conf = HBaseConfiguration.create();
	conf.set("hbase.zookeeper.quorum", "192.166.9.102");
	conf.set("hbase.zookeeper.property.clientPort", "2181");
}

判断表是否存在:

public static boolean isTableExist(String tableName) throws MasterNotRunningException,
ZooKeeperConnectionException, IOException{
	//在 HBase 中管理、访问表需要先创建 HBaseAdmin 对象
	//Connection connection = 
	ConnectionFactory.createConnection(conf);
	//HBaseAdmin admin = (HBaseAdmin) connection.getAdmin();
	HBaseAdmin admin = new HBaseAdmin(conf);
	return admin.tableExists(tableName);
}

创建表:

public static void createTable(String tableName, String... columnFamily) throwsMasterNotRunningException, ZooKeeperConnectionException, 
IOException{

	HBaseAdmin admin = new HBaseAdmin(conf);
	//判断表是否存在
	if(isTableExist(tableName)){
		System.out.println("表" + tableName + "已存在");
		//System.exit(0);
	}else{
		//创建表属性对象,表名需要转字节
		HTableDescriptor descriptor = new HTableDescriptor(TableName.valueOf(tableName));
		//创建多个列族
		for(String cf : columnFamily){
			descriptor.addFamily(new HColumnDescriptor(cf));
		}
		//根据对表的配置,创建表
		admin.createTable(descriptor);
		System.out.println("表" + tableName + "创建成功!");	
		}
 }

删除表:

public static void dropTable(String tableName) throws MasterNotRunningException
,ZooKeeperConnectionException, IOException{
HBaseAdmin admin = new HBaseAdmin(conf);
   if(isTableExist(tableName)){
   	admin.disableTable(tableName);
   	admin.deleteTable(tableName);
   	System.out.println("表" + tableName + "删除成功!");
   }else{
   	System.out.println("表" + tableName + "不存在!");
}
}

向表中插入数据:

public static void addRowData(String tableName, String rowKey, String columnFamily, String column, String value) throws IOException{
//创建 HTable 对象
HTable hTable = new HTable(conf, tableName);
//向表中插入数据
Put put = new Put(Bytes.toBytes(rowKey));
//向 Put 对象中组装数据
put.add(Bytes.toBytes(columnFamily), Bytes.toBytes(column), Bytes.toBytes(value));
hTable.put(put);
hTable.close();
System.out.println("插入数据成功");
}

删除多行数据:

 public static void deleteMultiRow(String tableName, String... rows) throws IOException {
        Configuration conf = HBaseConfiguration.create();
        conf.set("hbase.zookeeper.quorum", "192.166.9.102");
        conf.set("hbase.zookeeper.property.clientPort", "2181");


        HTable hTable = new HTable(conf, tableName);
        List<Delete> deleteList = new ArrayList<Delete>();
        for (String row : rows) {
            Delete delete = new Delete(Bytes.toBytes(row));
            deleteList.add(delete);
        }
        hTable.delete(deleteList);
        hTable.close();
    }

获取所有数据:

public void getAllRows(String tableName) throws IOException {
        HTable hTable = new HTable(conf, tableName);
        //得到用于扫描 region 的对象
        Scan scan = new Scan();
        //使用 HTable 得到 resultcanner 实现类的对象
        ResultScanner resultScanner = hTable.getScanner(scan);
        for (Result result : resultScanner) {
            Cell[] cells = result.rawCells();
            for (Cell cell : cells) {
                //得到 rowkey
                System.out.println(" 行 键 :" +
                        Bytes.toString(CellUtil.cloneRow(cell)));
                //得到列族
                System.out.println(" 列 族 " +
                        Bytes.toString(CellUtil.cloneFamily(cell)));
                System.out.println(" 列 :" +
                        Bytes.toString(CellUtil.cloneQualifier(cell)));
                System.out.println(" 值 :" +
                        Bytes.toString(CellUtil.cloneValue(cell)));
            }
        }
    }

获取某一行数据:

public void getRow(String tableName, String rowKey)
            throws IOException {
        HTable table = new HTable(conf, tableName);
        Get get = new Get(Bytes.toBytes(rowKey));
        //get.setMaxVersions();显示所有版本
        //get.setTimeStamp();显示指定时间戳的版本
        Result result = table.get(get);
        for (Cell cell : result.rawCells()) {
            System.out.println(" 行 键 :" + Bytes.toString(result.getRow()));
            System.out.println(" 列 族 " + Bytes.toString(CellUtil.cloneFamily(cell)));
            System.out.println(" 列 :" + Bytes.toString(CellUtil.cloneQualifier(cell)));
            System.out.println(" 值 :" + Bytes.toString(CellUtil.cloneValue(cell)));
            System.out.println("时间戳:" + cell.getTimestamp());
        }
    }

获取某一行指定“列族:列”的数据:

    public void getRowQualifier(String tableName, 
                                String rowKey, 
                                String family, 
                                String qualifier) 
            throws IOException{
        HTable table = new HTable(conf, tableName);
        Get get = new Get(Bytes.toBytes(rowKey));
        get.addColumn(Bytes.toBytes(family),
                Bytes.toBytes(qualifier));
        Result result = table.get(get);
        for(Cell cell : result.rawCells()){
            System.out.println(" 行 键 :" +
         Bytes.toString(result.getRow()));
            System.out.println(" 行 键 :" + Bytes.toString(result.getRow()));
            System.out.println(" 列 族 " + Bytes.toString(CellUtil.cloneFamily(cell)));
            System.out.println(" 列 :" + Bytes.toString(CellUtil.cloneQualifier(cell)));
            System.out.println(" 值 :" + Bytes.toString(CellUtil.cloneValue(cell)));
        } 
    }

与 Hive 的集成

HBase 与 Hive 的对比

Hive:

  • (1) 数据仓库
    Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方便使用 HQL 去管理查询。
  • (2) 用于数据分析、清洗
    Hive 适用于离线的数据分析和清洗,延迟较高。
  • (3) 基于 HDFS、MapReduce
    Hive 存储的数据依旧在 DataNode 上,编写的 HQL 语句终将是转换为 MapReduce 代码执行

HBase:

  • (1) 数据库
    是一种面向列族存储的非关系型数据库。
  • (2) 用于存储结构化和非结构化的数据
    适用于单表非关系型数据的存储,不适合做关联查询,类似 JOIN 等操作。
  • (3) 基于 HDFS
    数据持久化存储的体现形式是 HFile,存放于 DataNode 中,被 ResionServer 以 region 的形式进行管理。
  • (4) 延迟较低,接入在线业务使用
    面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问速度。
HBase 与 Hive 集成使用

HBase 与 Hive 的集成在最新的两个版本中无法兼容。!!!
案例一:建立 Hive 表,关联 HBase 表,插入数据到 Hive 表的同时能够影响 HBase 表。

  • (1) 在 Hive 中创建表同时关联 HBase
CREATE TABLE hive_hbase_emp_table(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = 
":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:co
mm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");
  • (2) 在 Hive 中创建临时中间表,用于 load 文件中的数据
  • (3) 向 Hive 中间表中 load 数据
  • (4) 通过 insert 命令将中间表中的数据导入到 Hive 关联 Hbase 的那张表中
  • (5) 查看 Hive 以及关联的 HBase 表中是否已经成功的同步插入了数据

案例二:在 HBase 中已经存储了某一张表 hbase_emp_table,然后在 Hive 中创建一个外部表来关联 HBase 中的 hbase_emp_table 这张表,使之可以借助 Hive 来分析 HBase 这张表中的数据。

  • (1) 在 Hive 中创建外部表
CREATE EXTERNAL TABLE relevance_hbase_emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = 
":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:co
mm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");
  • (2) 关联后就可以使用 Hive 函数进行一些分析操作了

HBase 优化

高可用

在 HBase 中 HMaster 负责监控 HRegionServer 的生命周期,均衡 RegionServer 的负载,如果 HMaster 挂掉了,那么整个 HBase 集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。所以 HBase 支持对 HMaster 的高可用配置

  • 1.关闭 HBase 集群(如果没有开启则跳过此步)
  • 2.在 conf 目录下创建 backup-masters 文件
  • 3.在 backup-masters 文件中配置高可用 HMaster 节点

echo hadoop103 > conf/backup-masters

  • 4.将整个 conf 目录 scp 到其他节点
预分区

每一个 region 维护着 StartRow 与 EndRow,如果加入的数据符合某个 Region 维护的RowKey 范围,则该数据交给这个 Region 维护。那么依照这个原则,我们可以将数据所要投放的分区提前大致的规划好,以提高 HBase 性能。

  • 1.手动设定预分区

Hbase> create ‘staff1’,‘info’,‘partition1’,SPLITS => [‘1000’,‘2000’,‘3000’,‘4000’]

  • 2.生成 16 进制序列预分区

create ‘staff2’,‘info’,‘partition2’,{NUMREGIONS => 15, SPLITALGO => ‘HexStringSplit’}

  • 3.按照文件中设置的规则预分区

create ‘staff3’,‘partition3’,SPLITS_FILE => ‘splits.txt’

  • 4.使用 JavaAPI 创建预分区
	//自定义算法,产生一系列 hash 散列值存储在二维数组中
	byte[][] splitKeys = 某个散列值函数
	//创建 HbaseAdmin 实例
	HBaseAdmin hAdmin = new HBaseAdmin(HbaseConfiguration.create());
	//创建 HTableDescriptor 实例
	HTableDescriptor tableDesc = new HTableDescriptor(tableName);
	//通过 HTableDescriptor 实例和散列值二维数组创建带有预分区的 Hbase 表
	hAdmin.createTable(tableDesc, splitKeys);
RowKey 设计(优化重点)

一条数据的唯一标识就是 RowKey,那么这条数据存储于哪个分区,取决于 RowKey 处于哪个一个预分区的区间内,设计 RowKey 的主要目的 ,就是让数据均匀的分布于所有的region 中,在一定程度上防止数据倾斜。接下来我们就谈一谈 RowKey 常用的设计方案。

  • 1.生成随机数、hash、散列值
  • 2.字符串反转
  • 3.字符串拼接
内存优化

HBase 操作过程中需要大量的内存开销,毕竟 Table 是可以缓存在内存中的,一般会分配整个可用内存的 70%给 HBase 的 Java 堆。但是不建议分配非常大的堆内存,因为 GC 过程持续太久会导致RegionServer 处于长期不可用状态,一般 16~48G 内存就可以了,如果因为框架占用内存过高导致系统内存不足,框架一样会被系统服务拖死。

基础优化
  • 1.允许在 HDFS 的文件中追加内容:hdfs-site.xml、hbase-site.xml
    • 属性:dfs.support.append
    • 解释:开启 HDFS 追加同步,可以优秀的配合 HBase 的数据同步和持久化。默认值为 true。
  • 2.优化 DataNode 允许的最大文件打开数:hdfs-site.xml
    • 属性:dfs.datanode.max.transfer.threads
    • 解释:HBase 一般都会同一时间操作大量的文件,根据集群的数量和规模以及数据动作,设置为 4096 或者更高。默认值:4096
  • 3.优化延迟高的数据操作的等待时间:hdfs-site.xml
    • 属性:dfs.image.transfer.timeout
    • 解释:如果对于某一次数据操作来讲,延迟非常高,socket 需要等待更长的时间,建议把该值设置为更大的值(默认 60000 毫秒),以确保 socket 不会被 timeout 掉。
  • 4.优化数据的写入效率:mapred-site.xml
    • 属性:mapreduce.map.output.compress | mapreduce.map.output.compress.codec
    • 解释:开启这两个数据可以大大提高文件的写入效率,减少写入时间。第一个属性值修改为true,第二个属性值修改为:org.apache.hadoop.io.compress.GzipCodec 或者其他压缩方式。
  • 5.设置 RPC 监听数量:hbase-site.xml
    • 属性:Hbase.regionserver.handler.count
    • 解释:默认值为 30,用于指定 RPC 监听的数量,可以根据客户端的请求数进行调整,读写请求较多时,增加此值。
  • 6.优化 HStore 文件大小:hbase-site.xml
    • 属性:hbase.hregion.max.filesize
    • 解释:默认值 10737418240(10GB),如果需要运行 HBase 的 MR 任务,可以减小此值,因为一个 region 对应一个 map 任务,如果单个 region 过大,会导致 map 任务执行时间过长。该值的意思就是,如果 HFile 的大小达到这个数值,则这个 region 会被切分为两个 Hfile。
  • 7.优化 HBase 客户端缓存:hbase-site.xml
    • 属性:hbase.client.write.buffer
    • 解释:用于指定 Hbase 客户端缓存,增大该值可以减少 RPC 调用次数,但是会消耗更多内存,反之则反之。一般我们需要设定一定的缓存大小,以达到减少 RPC 次数的目的。
  • 8.指定 scan.next 扫描 HBase 所获取的行数:hbase-site.xml
    • 属性:hbase.client.scanner.caching
    • 解释:用于指定 scan.next 方法获取的默认行数,值越大,消耗内存越大。
  • 9.flush、compact、split 机制
    • 当 MemStore 达到阈值,将 Memstore 中的数据 Flush 进 Storefile;compact 机制则是把 flush出来的小文件合并成大的 Storefile 文件。split 则是当 Region 达到阈值,会把过大的 Region一分为二。
    • 涉及属性:hbase.hregion.memstore.flush.size:134217728,即:128M 就是 Memstore 的默认阈值, 即:这个参数的作用是当单个 HRegion 内所有的 Memstore 大小总和超过指定值时,flush该 HRegion 的所有 memstore。RegionServer 的 flush 是通过将请求添加一个队列,模拟生产消费模型来异步处理的。那这里就有一个问题,当队列来不及消费,产生大量积压请求时,可能会导致内存陡增,最坏的情况是触发 OOM。
    • hbase.regionserver.global.memstore.upperLimit:0.4
    • hbase.regionserver.global.memstore.lowerLimit:0.38
      即:当 MemStore 使用内存总量达到hbase.regionserver.global.memstore.upperLimit 指定值时,将会有多个 MemStores flush 到文件中,MemStore flush 顺序是按照大小降序执行的,直到刷新到MemStore 使用内存略小于 lowerLimit
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值