分库
- 将一个数据库拆分成多个数据库
解决什么问题:
- MySQL实例分配的磁盘有限,
- 单库的存储容量有限。如果一个库存储的数据量超出单机磁盘或文件系统的承载上限(如 ext4 的单文件 2TB 限制),超过会写入失败(我没试过,你们可以试试)
- 单 MySQL 连接上限的问题(最大 1万多,一般最多设置 5-6k)
- 其他
- 性能严重下降(就像手机空间小了容易卡顿,可能是磁盘拿来当内存使(扩容);数据量大,加载的数量多,磁盘 io 增加,变慢)
- 容易崩溃(卡死)
- 备份与恢复漫长
如何做?
水平分库
- 分摊数据量: 将数据库中的数据分摊到多个库
垂直分库
- 将数据库根据业务进行拆分
- 不同业务使用的表放到不同的数据库中
- 比如(用户库存放用户信息,商品库,订单库)他们对应不同的功能.
- 这样 1 可以分摊请求压力,2 可以做隔离
分表
解决什么问题
- 查询性能低(主要是全表扫描)
- 写入性能低(b+树的平衡机制)
1000 万与两亿数据读写对比
- 全表扫描查询一条数据
- 1000 万耗时 2s;
- 两亿:耗时 40s
- 写 10 万条数据耗时
- 1000 万 2-3 秒
- 两亿: 20-30 秒
一个查询执行太久会导致有大量的连接被占用,达到连接上限就会报错.
如何做
水平分表
- 让一个数据表的数据行数变少,查询时间变快
垂直分表
- 让每行数据所占空间变少,减少 io 的次数(MySQL 一次 io16k)
- 根据不同字段的功能特点进行分表
- 比如: 用户表有 50 个字段,可以根据信息的特点分成基本信息与拓展信息
- 这样可以减少查询的磁盘 io 次数,降低查询耗时.
常见的数据分片的方式(水平拆分)
1. 按数据范围分片:
a. 比如一共 2亿数据(序号(id)1-2 亿),分成两个表; 序号(id)1-1 亿的数据在一个表,序号 1 亿-2 亿的在一个表
ⅰ. 缺点:数据不均
1. 假如只有1 亿零 1 条数据,按照这个分库的方法,那么第一个库有一亿数据量,另一个只有一条数据
ⅱ. 无法实现数据的动态分配
2. 哈希取模
ⅰ. 比如: 一共有 5 台服务器(实例):根据用户的 id(或者其他字段哈希成 int)%5(实例的数量)=对应的数据库
1. 优点: 解决了数据动态分配的问题
2. 缺点:
3. 容易造成数据不均衡(比如大部分的数据都在其中的一两个节点)
4. 拓展性差: 如果要增加或者减少实例的数量,需要重新配置,加载实例
一致性哈希(虚拟节点):redis 的集群化方案:
ⅰ. 固定哈希环(2^16)16384 个槽位
ⅱ. 每个节点均匀的分布在哈希环上面
ⅲ. (假设一共 10000 个大小的哈希环(其实不止),一共部署 5 个实例,哈希值在 0-2000 的数据储存到节点 1;2000 到 4000 的数据储存在节点 2; 以此类推,占满 整个哈希环
1. 问题(数据不均衡):数据的哈希值90% 都哈希再 0-2000 ,那么 90% 的数据储存在第一个哈希环,造成严重的数据不均衡
2. 解决方案:虚拟节点
a. 90% 的数据都哈希再 0-2000 的范围内,那么把 0-2000 的数据进行拆分,按 400一格分成 5 格,那么就可以插入 4 个虚拟节点 ,
b. 虚拟节点并不是真正的,而是拦截数据将其转移到真正的节点上
ⅰ. 比如 400 处有一个节点指向 4000 的真实节点(槽),那么哈希值 0-400 的数据将被虚拟节点拦截,并储存到真实节点4000中,解决节点负载不均的问题
b. 优点:
ⅰ. 解决数据动态分配,数据均匀分表,实例拓展问题
MongoDB 是怎么实现数据分片的
a. 主要是三种分片方案
ⅰ. 范围
ⅱ. 哈希
ⅲ. 标签(按照不同的标签将数据放到不同的实例)
Mongo 是如何保证数据均衡的?
■ Chunk(数据块): 数据在每个分片上的基本单位。每个 Chunk 包含一段连续的范围数据(基于分片键)。
■ Balance(均衡): 是 MongoDB 自动调整数据分布的过程,即通过迁移 Chunk 来保持分片之间的均衡。
■ Chunk 的拆分
● 一个块最大 64MB,超过最大值就自动分成两个块,没有数据的迁移,很快
■ 数据均衡的一个重要组成部分是 Chunk 的迁移。MongoDB 会根据数据量和负载情况定期移动 Chunk,确保所有分片的存储容量保持平衡。
● 过程
当某个分片的 Chunk 数据量过大或某些分片的数据量较小,MongoDB 会通过均衡器(Balancer)将 Chunk 从一个分片迁移到另一个分片。
迁移是自动进行的,MongoDB 会确保迁移过程中数据的完整性和一致性。
迁移操作会在后台执行,尽量减少对客户端请求的影响。
优点: 数据的均衡与负载均衡
缺点: 是内部线程实现的,有一定的性能消耗
分库分表的问题(分库分表带来的问题)
1. 数据不均衡
- 比如两个数据库,取余大部分数据(80%)都是一个数据库中的怎么办?
2 跨库事务
分库后,数据可能分布在不同的库中。例如:
一个订单系统,订单信息和用户信息被拆分到不同的库。如果需要在一个事务中同时更新订单状态和用户余额,就涉及跨库事务。
3 唯一键
对表/库进行水平拆分后就无法保持强唯一约束了
- 解决方案
- UUID:
使用 UUID 生成唯一标识。
优点:保证全局唯一;缺点:UUID 长度大,索引性能较差。
- 雪花算法:
基于时间戳生成全局唯一 ID(如 Twitter 的 Snowflake 算法)。
优点:高效,生成的 ID 有序;缺点:依赖外部服务。
- 数据库自增步长:
设置每个库的自增 ID 起始值和步长。例如:
库1:1, 3, 5…
库2:2, 4, 6…
优点:实现简单;缺点:不适用于动态扩容。
4. 跨库查询
问题
分库后,复杂查询(如多表 JOIN 或聚合操作)变得困难。例如:
查询某用户的所有订单和支付记录,但订单和支付信息在不同库中。
5. 热点问题
分库分表可能导致数据访问集中于某些分片。例如:
用户按 ID 分片,但某些大客户的操作频繁集中到一个库,造成热点
参考:
https://cloud.tencent.com/developer/article/1901963
https://www.cnblogs.com/chengxy-nds/p/16924305.html
https://cloud.tencent.com/developer/article/1843987