TIDB-tiflash缩容

本文详细介绍了TiFlash缩容步骤,包括缩容前的准备、缩容操作流程及解决缩容过程中可能出现的问题。通过TiUP工具和手动操作两种方式进行缩容,并提供了在遇到常见错误时的解决方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、tiflash缩容前准备

1.在 TiDB 客户端中针对所有副本数大于集群剩余 TiFlash 节点数的表执行

比如只有一个tiflush节点,并且要缩容

alter table <db-name>.<table-name> set tiflash replica 0;

2.查看副本情况

select * from information_schema.tiflash_replica;

如果为空则副本删除完全

二、缩容操作

1.通过scale-in缩容

1.1.执行缩容

tiup cluster scale-in <cluster-name> -N <tidb节点>

2.通过ctl手动缩容

2.1 查询tiflash节点对应的store-id

tiup ctl pd -u <pd-address> store

如下图所示,选择value为tiflash的ID 

2.2 执行缩容操作

tiup ctl pd -u <pd-address> store delete 12043

2.3 等待该 TiFlash 节点对应的 store 消失或者 state_name 变成 Tombstone 再关闭 TiFlash 进程

三、错误情况及解决

1.缩容不成功

原因:

可能是没有删除副本,或者没有完全删除副本,或者玄学原因,此时已经不能通过tiflash_replica查看同步副本是否已经完全删除

此时可以通过--force强制缩容

tiup cluster scale-in <cluster-name> -N <tidb节点> --force

此时可以正常缩容,但是再次进行扩容的时候会发现tiflash出现如下状态

2.解决方法

2.1 需要通过如下方式查看

curl http://<pd-ip:pd-port>/pd/api/v1/config/rules/group/tiflash

2.2 有内容的话啊我们需要删除

curl -v -X DELETE http://<pd_ip>:<pd_port>/pd/api/v1/config/rule/tiflash/table-200-r(table-200-r是通过上一条命令查看出来的)

然后便可以重新扩容了

官网链接:https://docs.pingcap.com/zh/tidb/stable/scale-tidb-using-tiup#使用-tiup-扩容缩容-tidb-集群

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值