美团二面:为什么Redis会有哨兵?

话不多说,发车发车!

提纲

为什么要有哨兵机制?

在 Redis 的主从架构中,由于主从模式是读写分离的,如果主节点(master)挂了,那么将没有主节点来服务客户端的写操作请求,也没有主节点给从节点(slave)进行数据同步了。

主节点挂了

这时如果要恢复服务的话,需要人工介入,选择一个「从节点」切换为「主节点」,然后让其他从节点指向新的主节点,同时还需要通知上游那些连接 Redis 主节点的客户端,将其配置中的主节点 IP 地址更新为「新主节点」的 IP 地址。

这样也不太“智能”了,要是有一个节点能监控「主节点」的状态,当发现主节点挂了 ,它自动将一个「从节点」切换为「主节点」的话,那么可以节省我们很多事情啊!

Redis 在 2.8 版本以后提供的哨兵(Sentinel)机制,它的作用是实现主从节点故障转移。它会监测主节点是否存活,如果发现主节点挂了,它就会选举一个从节点切换为主节点,并且把新主节点的相关信息通知给从节点和客户端。

哨兵机制是如何工作的?

哨兵其实是一个运行在特殊模式下的 Redis 进程,所以它也是一个节点。从“哨兵”这个名字也可以看得出来,它相当于是“观察者节点”,观察的对象是主从节点。

当然,它不仅仅是观察那么简单,在它观察到有异常的状况下,会做出一些“动作”,来修复异常状态。

哨兵节点主要负责三件事情:监控、选主、通知

哨兵的职责

所以,我们重点要学习这三件事情:

  • 哨兵节点是如何监控节点的?又是如何判断主节点是否真的故障了?
  • 根据什么规则选择一个从节点切换为主节点?
  • 怎么把新主节点的相关信息通知给从节点和客户端呢?

如何判断主节点真的故障了?

哨兵会周期性地给所有主从节点发送 PING 命令,当主从节点收到 PING 命令后,会发送一个响应命令给哨兵,这样就可以判断它们是否在正常运行。

哨兵监控主从节点

如果主节点或者从节点没有在规定的时间内响应哨兵的 PING 命令,哨兵就会将它们标记为「主观下线」。这个「规定的时间」是配置项 down-after-milliseconds 参数设定的,单位是毫秒。

主观下线?难道还有客观下线?

是的没错,客观下线只适用于主节点。

之所以针对「主节点」设计「主观下线」和「客观下线」两个状态,是因为有可能「主节点」其实并没有故障,可能只是因为主节点的系统压力比较大或者网络发送了拥塞,导致主节点没有在规定时间内响应哨兵的 PING 命令。

所以,为了减少误判的情况,哨兵在部署的时候不会只部署一个节点,而是用多个节点部署成哨兵集群最少需要三台机器来部署哨兵集群),通过多个哨兵节点一起判断,就可以就可以避免单个哨兵因为自身网络状况不好,而误判主节点下线的情况。同时,多个哨兵的网络同时不稳定的概率较小,由它们一起做决策,误判率也能降低。

具体是怎么判定主节点为「客观下线」的呢?

当一个哨兵判断主节点为「主观下线」后,就会向其他哨兵发起命令,其他哨兵收到这个命令后,就会根据自身和主节点的网络状况,做出赞成投票或者拒绝投票的响应。

当这个哨兵的赞同票数达到哨兵配置文件中的 quorum 配置项设定的值后,这时主节点就会被该哨兵标记为「客观下线」。

例如,现在有 3 个哨兵,quorum 配置的是 2,那么一个哨兵需要 2 张赞成票,就可以标记主节点为“客观下线”了。这 2 张赞成票包括哨兵自己的一张赞成票和另外两个哨兵的赞成票。

PS:quorum 的值一般设置为哨兵个数的二分之一加1,例如 3 个哨兵就设置 2。

哨兵判断完主节点客观下线后,哨兵就要开始在多个「从节点」中,选出一个从节点来做新主节点。

如何选新主节点?

那么多「从节点」,到底选择哪个从节点作为新主节点的?

随机的方式好吗?随机的方式,实现起来很简单,但是如果选到一个网络状态不好的从节点作为新主节点,那么可能在将来不久又要做一次主从故障迁移。

所以,我们首先要把网络状态不好的从节点给过滤掉。首先把已经下线的从节点过滤掉,然后把以往网络连接状态不好的从节点也给过滤掉。

怎么判断从节点之前的网络连接状态不好呢?

Redis 有个叫 down-after-milliseconds * 10 配置项,其down-after-milliseconds 是主从节点断连的最大连接超时时间。如果在 down-after-milliseconds 毫秒内,主从节点都没有通过网络联系上,我们就可以认为主从节点断连了。如果发生断连的次数超过了 10 次,就说明这个从节点的网络状况不好,不适合作为新主节点。

至此,我们就把网络状态不好的从节点过滤掉了,接下来要对所有从节点进行三轮考察:优先级、复制进度、ID 号。在进行每一轮考察的时候,哪个从节点优先胜出,就选择其作为新主节点。

  • 第一轮考察:哨兵首先会根据从节点的优先级来进行排序,优先级越小排名越靠前,
  • 第二轮考察:如果优先级相同,则查看复制的下标,哪个从「主节点」接收的复制数据多,哪个就靠前。
  • 第三轮考察:如果优先级和下标都相同,就选择从节点 ID 较小的那个。

第一轮考察:优先级最高的从节点胜出

Redis 有个叫 slave-priority 配置项,可以给从节点设置优先级。

每一台从节点的服务器配置不一定是相同的,我们可以根据服务器性能配置来设置从节点的优先级。

比如,如果 「 A 从节点」的物理内存是所有从节点中最大的, 那么我们可以把「 A 从节点」的优先级设置成最高。这样当哨兵进行第一轮考虑的时候,优先级最高的 A 从节点就会优先胜出,于是就会成为新主节点。

第二轮考察:复制进度最靠前的从节点胜出

如果在第一轮考察中,发现优先级最高的从节点有两个,那么就会进行第二轮考察,比较两个从节点哪个复制进度。

什么是复制进度?主从架构中,主节点会将写操作同步给从节点,在这个过程中,主节点会用 master_repl_offset 记录当前的最新写操作在 repl_backlog_buffer 中的位置,而从节点会用 slave_repl_offset 这个值记录当前的复制进度。

如果某个从节点的 slave_repl_offset 最接近 master_repl_offset,说明它的复制进度是最靠前的,于是就可以将它选为新主节点。

第三轮考察:ID 号小的从节点胜出

如果在第二轮考察中,发现有两个从节点优先级和复制进度都是一样的,那么就会进行第三轮考察,比较两个从节点的 ID 号,ID 号小的从节点胜出。

什么是 ID 号?每个从节点都有一个编号,这个编号就是 ID 号,是用来唯一标识从节点的。

到这里,选主的事情终于结束了。简单给大家总结下:

  • 过滤掉已经离线的从节点;
  • 过滤掉历史网络连接状态不好的从节点;
  • 将剩下的从节点,进行三轮考察:优先级、复制进度、ID 号。在每一轮考察过程中,如果找到了一个胜出的从节点,就将其作为新主节点。

由哪个哨兵进行主从故障转移?

前面说过,为了更加“客观”的判断主节点故障了,一般不会只由单个哨兵的检测结果来判断,而是多个哨兵一起判断,这样可以减少误判概率,所以哨兵是以哨兵集群的方式存在的。

那在选定了即将作为主节点的从节后,由哨兵集群中的哪个节点进行主从故障转移呢?

所以这时候,还需要在哨兵集群中选出一个 leeder,让 Leader 来执行主从切换。

选举 leeder 的过程其实是一个投票的过程,在投票开始前,肯定得有个「候选者」。

那谁来作为候选者呢?

哪个哨兵节点判断主节点为「客观下线」,这个哨兵节点就是候选者,所谓的候选者就是想当 Leader 的哨兵。

举个例子,假设有三个哨兵。当哨兵 A 先判断到主节点「主观下线后」,就会给其他实例发送 is-master-down-by-addr 命令。接着,其他哨兵会根据自己和主节点的网络连接情况,做出赞成投票或者拒绝投票的响应。

当哨兵 A 收到赞成票数达到哨兵配置文件中的 quorum 配置项设定的值后,就会将主节点标记为「客观下线」,此时的哨兵 A 就是一个Leader 候选者。

候选者如何选举成为 Leader?

候选者会向其他哨兵发送命令,表明希望成为 Leader 来执行主从切换,并让所有其他哨兵对它进行投票。

每个哨兵只有一次投票机会,如果用完后就不能参与投票了,可以投给自己或投给别人,但是只有候选者才能把票投给自己。

那么在投票过程中,任何一个「候选者」,要满足两个条件:

  • 第一,拿到半数以上的赞成票;
  • 第二,拿到的票数同时还需要大于等于哨兵配置文件中的 quorum 值。

举个例子,假设哨兵节点有 3 个,quorum 设置为 2,那么任何一个想成为 Leader 的哨兵只要拿到 2 张赞成票,就可以选举成功了。如果没有满足条件,就需要重新进行选举。

这时候有的同学就会问了,如果某个时间点,刚好有两个哨兵节点判断到主节点为客观下线,那这时不就有两个候选者了?这时该如何决定谁是 Leader 呢?

每位候选者都会先给自己投一票,然后向其他哨兵发起投票请求。如果投票者先收到「候选者 A」的投票请求,就会先投票给它,如果投票者用完投票机会后,收到「候选者 B」的投票请求后,就会拒绝投票。这时,候选者 A 先满足了上面的那两个条件,所以「候选者 A」就会被选举为 Leader。

为什么哨兵节点至少要有 3 个?

如果哨兵集群中只有 2 个哨兵节点,此时如果一个哨兵想要成功成为 Leader,必须获得 2 票,而不是 1 票。

所以,如果哨兵集群中有个哨兵挂掉了,那么就只剩一个哨兵了,如果这个哨兵想要成为 Leader,这时票数就没办法达到 2 票,就无法成功成为 Leader,这时是无法进行主从节点切换的。

因此,通常我们至少会配置 3 个哨兵节点。这时,如果哨兵集群中有个哨兵挂掉了,那么还剩下两个个哨兵,如果这个哨兵想要成为 Leader,这时还是有机会达到 2 票的,所以还是可以选举成功的,不会导致无法进行主从节点切换。

当然,你要问,如果 3 个哨兵节点,挂了 2 个怎么办?这个时候得人为介入了,或者增加多一点哨兵节点。

再说一个问题,Redis 1 主 4 从,5 个哨兵 ,quorum 设置为 3,如果 2 个哨兵故障,当主节点宕机时,哨兵能否判断主节点“客观下线”?能否自动切换?

  • 哨兵集群可以判定主节点“客观下线”。哨兵集群还剩下 3 个哨兵,当一个哨兵判断主节点“主观下线”后,询问另外 2 个哨兵后,有可能能拿到 3 张赞同票,这时就达到了 quorum 的值,因此,哨兵集群可以判定主节点为“客观下线”。
  • 哨兵集群可以完成主从切换。当有个哨兵标记主节点为「客观下线」后,就会进行选举 Leader 的过程,因为此时哨兵集群还剩下 3 个哨兵,那么还是可以拿到半数以上(5/2+1=3)的票,而且也达到了 quorum 值,满足了选举 Leader 的两个条件, 所以就能选举成功,因此哨兵集群可以完成主从切换。

如果 quorum 设置为 2 的话,并且有 3 个哨兵故障。此时哨兵集群还是可以判定主节点为“客观下线”,但是哨兵不能完成主从切换了,大家可以自己推演下。

quorum 的值建议设置为哨兵个数的二分之一加1,例如 3 个哨兵就设置 2,5 个哨兵设置为 3,而且哨兵节点的数量应该是奇数

如何通知客户端新主节点的信息?

经过前面一系列的操作后,哨兵集群终于完成了主从故障迁移,那么新主节点的信息要如何通知给客户端呢?

这主要通过 Redis 的发布者/订阅者机制来实现的。每个哨兵节点提供发布者/订阅者机制,客户端可以从哨兵订阅消息。

比如,客户端订阅了主从切换的事件,当哨兵把新主节点选择出来后,就会发布新主节点的 IP 地址和端口信息,这个时候客户端就可以收到这条信息,然后用这里面的新主节点的 IP 地址和端口进行通信了。

哨兵集群是如何组成的?

前面提到了 Redis 的发布者/订阅者机制,那就不得不提一下哨兵集群的组成方式,因为它也用到了这个技术。

在我第一次搭建哨兵集群的时候,当时觉得很诧异。因为在配置哨兵的信息时,竟然只需要填下面这几个参数,设置主节点名字、主节点的 IP 地址和端口号以及 quorum 值。

sentinel monitor <master-name> <ip> <redis-port> <quorum> 

不需要填其他哨兵节点的信息,我就好奇它们是如何感知对方的,又是如何组成哨兵集群的?

后面才了解到,哨兵节点之间是通过 Redis 的发布者/订阅者机制来相互发现的

在主从集群中,主节点上有一个名为__sentinel__:hello的频道,不同哨兵就是通过它来相互发现,实现互相通信的。

在下图中,哨兵 A 把自己的 IP 地址和端口的信息发布到__sentinel__:hello 频道上,哨兵 B 和 C 订阅了该频道。那么此时,哨兵 B 和 C 就可以从这个频道直接获取哨兵 A 的 IP 地址和端口号。然后,哨兵 B、C 可以和哨兵 A 建立网络连接。

通过这个方式,哨兵 B 和 C 也可以建立网络连接,这样一来,哨兵集群就形成了。

哨兵集群会对「从节点」的运行状态进行监控,那哨兵集群如何知道「从节点」的信息?

主节点知道所有「从节点」的信息,所以哨兵会向主节点发送 INFO 命令来获取所有「从节点」的信息。

如下图所示,哨兵 B 给主节点发送 INFO 命令,主节点接受到这个命令后,就会把从节点列表返回给哨兵。接着,哨兵就可以根据从节点列表中的连接信息,和每个从节点建立连接,并在这个连接上持续地对从节点进行监控。哨兵 A 和 C 可以通过相同的方法和从节点建立连接。

正式通过 Redis 的发布者/订阅者机制,哨兵之间可以相互感知,然后组成集群,同时,哨兵又通过 INFO 命令,在主节点里获得了所有从节点连接信息,于是就能和从节点建立连接,并进行监控了。

参考资料:

  • 《Redis 核心技术与实战》
  • 《Redis 设计与实现》

总结

Redis 在 2.8 版本以后提供的哨兵(Sentinel)机制,它的作用是实现主从故障自动转移。它会监测主节点是否存活,如果发现主节点挂了,它就会选举一个从节点切换为主节点,并且把新主节点的相关信息通知给从节点和客户端。

哨兵一般是以集群的方式部署,至少需要 3 个哨兵节点,哨兵集群主要负责三件事情:监控、选主、通知

哨兵节点通过 Redis 的发布者/订阅者机制,哨兵之间可以相互感知,相互连接,然后组成哨兵集群,同时哨兵又通过 INFO 命令,在主节点里获得了所有从节点连接信息,于是就能和从节点建立连接,并进行监控了。

哨兵集群会通过投票的方式判定主节点是否「客观下线」,如果判定主节点为客观下线,那么就会从所有的「从节点」中选择一个作为新主节点,选择的规则有以下步骤:

  • 过滤掉已经离线的从节点;
  • 过滤掉历史网络连接状态不好的从节点;
  • 将剩下的从节点,进行三轮考察:优先级、复制进度、ID 号。在每一轮考察过程中,如果找到了一个胜出的从节点,就将其作为新主节点。

选择好从节点后,就需要从哨兵集群选择一个 leader 执行主从切换。选举 leader 的过程,也是一个投票的过程,任何一个想成为 leader 的哨兵节点,要满足两个条件:

  • 第一,拿到半数以上的赞成票;
  • 第二,拿到的票数同时还需要大于等于哨兵配置文件中的 quorum 值。

选举完 leader 哨兵节点后,就执行主从切换。完成主从切换后,通过 Redis 的发布者/订阅者机制通知客户端新主节点的 IP 地址和端口。

<think>首先,用户的问题是比较Redis和Snowflake在分布式ID生成中的优缺点。我需要基于系统级指令和用户可见层的规则来构建回答。 关键点: - 所有行内数学表达式必须用$...$格式。 - 独立公式用$$...$$格式并单独成段。 - 使用中文回答。 - 生成相关问题。 - 回答中引用的段落末尾自然地添加引用标识。 - 回答结构清晰,帮助用户逐步解决问题。 - 保证回答真实可靠。 - 参考提供的站内引用,但用户的问题是基于这些引用,所以我要整合这些信息。 提供的引用: - [^1]: Snowflake的特点:生成ID按时间有序,64位整数,不会碰撞,效率高。 - [^2]: Redis适合生成每天从0开始的流水号,如订单号=日期+当日自增长号,使用INCR。 - [^3]: 分布式ID生成策略,Redis基于单线程使用INCR生成ID。 - [^4]: 分布式唯一ID生成策略,包括Snowflake和Redis,提到其他如百度、美团、滴滴的实现。 用户的问题:比较Redis和Snowflake在分布式ID生成中的优缺点。 结构回答: 1. **介绍**:简要说明Redis和Snowflake在分布式ID生成中的角色。 2. **Snowflake算法**:解释其原理、优点和缺点。 3. **Redis方法**:解释其原理、优点和缺点。 4. **对比**:直接比较两者的优缺点。 5. **总结**:给出适用场景建议。 6. **生成相关问题**:在最后添加相关问题。 确保使用中文。 在回答中,自然地添加引用标识。例如,如果提到引用中的内容,就在末尾加[^n]。 生成相关问题:基于内容,生成3-5个相关问题。 现在,规划内容: **Snowflake算法**: - 原理:基于时间戳、工作机器ID、序列号生成64位ID。 - 优点:有序、高效、无碰撞、不依赖外部服务。 - 缺点:依赖系统时钟(时钟回拨问题)、需要配置机器ID。 - 引用[^1]:提到Snowflake的特点。 **Redis方法**: - 原理:使用Redis的INCR或INCRBY命令生成递增ID。 - 优点:简单、原子操作保证唯一性、适合日期相关ID。 - 缺点:依赖Redis服务、单点故障风险、性能瓶颈。 - 引用[^2]和[^3]:提到Redis生成ID。 **对比**: - 性能:Snowflake本地生成,更快;Redis需要网络请求。 - 可靠性:Snowflake无外部依赖;Redis依赖Redis服务。 - 有序性:Snowflake时间有序;Redis可以有序。 - 适用场景:Snowflake适合高吞吐系统;Redis适合简单流水号。 - 引用[^4]:提到其他实现,但可以用于上下文。 最后,生成相关问题: 1. 如何解决Snowflake算法中的时钟回拨问题? 2. Redis分布式ID生成如何避免单点故障? 3. 在什么场景下选择Snowflake优于Redis? 确保回答清晰、逐步解释。</think>### Redis与Snowflake在分布式ID生成中的优缺点对比 在分布式系统中,生成唯一ID是关键需求。Redis和Snowflake是两种常见方案:Redis基于内存数据库的原子操作生成ID,而Snowflake是一种算法,本地生成时间有序ID。下面我将逐步分析它们的原理、优缺点,并进行直接对比。内容基于可靠技术文档和实际应用经验[^1][^2][^3][^4]。 #### 1. **Snowflake算法概述** Snowflake由Twitter设计,生成64位整数ID,结构包括时间戳、工作机器ID和序列号。例如,ID格式为: $$ \text{ID} = \text{时间戳} \times 2^{22} + \text{工作机器ID} \times 2^{12} + \text{序列号} $$ - **优点**: - **高效有序**:ID按时间递增,支持范围查询(如数据库索引优化),本地生成无网络延迟,吞吐量高(每秒可生成百万级ID)[^1]。 - **无碰撞**:工作机器ID(如datacenter和workerID)确保分布式系统内唯一性[^1]。 - **无外部依赖**:算法在应用层实现,不依赖数据库缓存服务,系统更健壮[^4]。 - **缺点**: - **时钟回拨问题**:依赖系统时钟,如果时钟回退(如NTP同步错误),可能导致ID重复或不一致[^4]。 - **配置复杂**:需手动分配工作机器ID,集群扩展时可能引发冲突(如IP或配置文件管理)[^1]。 - **位长度固定**:64位ID可能在某些场景下长度不足(如需要更大范围时需定制扩展)[^1]。 #### 2. **Redis方法概述** Redis使用单线程模型,通过原子命令(如`INCR`或`INCRBY`)生成递增ID。例如,生成每日订单号: ```python # 伪代码示例:Redis生成ID key = "order_id:" + current_date id = redis.incr(key) # 返回当日自增序列 ``` - **优点**: - **简单易用**:API简单(如`INCR`),适合生成日期相关流水号(如订单号=日期+自增数),无需额外算法[^2]。 - **原子性保证**:Redis单线程确保操作原子性,避免并发冲突,ID绝对唯一[^3]。 - **灵活性**:支持自定义前缀(如日期),便于业务分片查询[^2]。 - **缺点**: - **性能瓶颈**:依赖网络请求,高并发时Redis可能成为单点瓶颈(吞吐量受限于Redis性能,通常每秒万级)[^3]。 - **可靠性风险**:Redis服务故障会导致ID生成中断(需高可用部署如哨兵模式,但增加复杂度)[^3]。 - **存储依赖**:ID状态存储在Redis中,持久化失败可能丢失序列(需备份策略)[^2]。 #### 3. **直接优缺点对比** 下表总结关键差异(基于实际应用场景): | 维度 | Snowflake算法 | Redis方法 | 对比说明 | |--------------|-----------------------------------------------|-----------------------------------------------|--------------------------------------------------------------------------| | **性能** | 高:本地生成,无I/O延迟,吞吐量高(>1M/s)[^1] | 中:网络依赖,吞吐量较低(~10K/s),易瓶颈[^3] | Snowflake更适合高并发系统,如电商秒杀;Redis适合中小规模应用[^4]。 | | **可靠性** | 高:无外部服务依赖,时钟问题可缓解(如NTP优化) | 中:依赖Redis可用性,单点故障风险高[^3] | Snowflake更健壮;Redis需额外HA方案(如集群)[^4]。 | | **有序性** | 强:时间戳保证ID全局有序[^1] | 可控:需手动设计(如日期前缀),否则无序[^2] | Snowflake利于范围查询;Redis需业务层处理有序性[^2]。 | | **复杂度** | 中:需实现算法,处理时钟回拨[^4] | 低:开箱即用,集成简单[^3] | Redis上手快;Snowflake开发成本更高但可控[^1]。 | | **适用场景** | 全局唯一ID、高吞吐系统(如日志、监控)[^1] | 日期流水号、低频业务(如订单生成)[^2] | Snowflake用于分布式核心服务;Redis用于简单、带时间标识的ID[^4]。 | #### 4. **总结与建议** - **选择Snowflake时**:优先考虑性能和独立性,例如金融交易或物联网设备ID生成,但需解决时钟问题(如美团Leaf的优化版本)[^4]。 - **选择Redis时**:适合简单、可读性强的ID,如每日订单,但必须部署Redis高可用集群[^3]。 - **混合方案**:在复杂系统中,可结合两者(如用Snowflake生成主ID,Redis处理业务流水号),平衡效率与灵活性[^4]。 总之,Snowflake在性能和可靠性上占优,但实现复杂;Redis简单灵活,但受限于外部服务。实际选型需根据系统规模、并发需求和运维能力综合评估[^1][^2][^3][^4]。 ### 相关问题 1. Snowflake算法如何处理时钟回拨问题? 2. Redis分布式ID生成如何实现高可用以避免单点故障? 3. 在微服务架构中,如何设计一个混合分布式ID生成方案? 4. Snowflake和UUID在分布式ID生成中有哪些核心区别? [^1]: SnowFlake生成ID能够按照时间有序生成,算法生成ID的结果是一个64Bit大小的整数,为一个Long型,分布式系统内不会产生ID碰撞,并且效率较高。 [^2]: 比较适合使用Redis来生成每天从0开始的流水号。比如订单号=日期+当日自增长号。可以每天在Redis中生成一个Key,使用INCR进行累加。 [^3]: 当使用数据库来生成ID性能不够要求的时候,可以尝试使用Redis来生成ID。这主要依赖于Redis是单线程的,所以也可以用生成全局唯一的ID。可以用Redis的原子操作INCR和INCRBY来实现。 [^4]: 分布式唯一id生成策略。百度(uid-generator)基于snowflake算法实现。美团(Leaf)支持号段模式和snowflake算法模式,可自由切换。滴滴(Tinyid)基于号段模式实现。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值