分库分表(1) --- 理论

当数据库表数据量达到千万级别时,查询性能下降。本文介绍了垂直切分和水平切分两种数据切分策略,包括垂直分库、垂直分表、水平分库和水平分表,以及数据分片规则如Hash取模、数值Range和一致性Hash算法。同时,文章探讨了分库分表带来的分布式事务、跨节点查询、分页排序等问题及解决方案。

当一张表的数据达到几千万时,查询一次所花的时间会变长。业界公认MySQL单表容量在 1千万 以下是最佳状态,因为这时它的BTREE索引树高在3~5之间。

数据切分可以分为:垂直切分水平切分

一、垂直切分

垂直切分又可以分为: 垂直分库垂直分表

1、垂直分库

概念 就是根据业务耦合性,将关联度低的不同表存储在不同的数据库。做法与大系统拆分为多个小系统类似,按业务分类进行独立划分。与"微服务治理"的做法相似,

每个微服务使用单独的一个数据库。

如图:

说明

一开始我们是单体服务,所以只有一个数据库,所有的表都在这个库里。

后来因为业务需求,单体服务变成微服务治理。所以将之前的一个商品库,拆分成多个数据库。每个微服务对于一个数据库。

2、垂直分表

概念 把一个表的多个字段分别拆成多个表,一般按字段的冷热拆分,热字段一个表,冷字段一个表。从而提升了数据库性能。

如图:

说明

一开始商品表中包含商品的所有字段,但是我们发现:

1.商品详情和商品属性字段较长2.商品列表的时候我们是不需要显示商品详情和商品属性信息,只有在点进商品商品的时候才会展示商品详情信息

所以可以考虑把商品详情和商品属性单独切分一张表,提高查询效率。

3、垂直切分优缺点

优点

- 解决业务系统层面的耦合,业务清晰
- 与微服务的治理类似,也能对不同业务的数据进行分级管理、维护、监控、扩展等
- 高并发场景下,垂直切分一定程度的提升IO、数据库连接数、单机硬件资源的瓶颈

缺点

- 分库后无法Join,只能通过接口聚合方式解决,提升了开发的复杂度
- 分库后分布式事务处理复杂
- 依然存在单表数据量过大的问题(需要水平切分)

二、水平切分

当一个应用难以再细粒度的垂直切分或切分后数据量行数巨大,存在单库读写、存储性能瓶颈,这时候就需要进行水平切分了。

水平切分也可以分为:水平分库水平分表

1、水平分库

水平分库的原因

上面虽然已经把商品库分成3个库,但是随着业务的增加一个订单库也出现QPS过高,数据库响应速度来不及,一般mysql单机也就1000左右的QPS,如果超过1000就要考虑分库。

如图

2、水平分表

概念 一般我们一张表的数据不要超过1千万,如果表数据超过1千万,并且还在不断增加数据,那就可以考虑分表。

如图

3、水平切分优缺点

优点

- 不存在单库数据量过大、高并发的性能瓶颈,提升系统稳定性和负载能力
- 应用端改造较小,不需要拆分业务模块

缺点

- 跨分片的事务一致性难以保证
- 跨库的Join关联查询性能较差
- 数据多次扩展难度和维护量极大

三、数据分片规则

我们我们考虑去水平切分表,将一张表水平切分成多张表,这就涉及到数据分片的规则,比较常见的有:Hash取模分表数值Range分表一致性Hash算法分表

1、Hash取模分表

概念 一般采用Hash取模的切分方式,例如:假设按goods_id分4张表。(goods_id%4 取整确定表)

优点

 - 数据分片相对比较均匀,不容易出现热点和并发访问的瓶颈。

缺点

- 后期分片集群扩容时,需要迁移旧的数据很难。
- 容易面临跨分片查询的复杂问题。比如上例中,如果频繁用到的查询条件中不带goods_id时,将会导致无法定位数据库,从而需要同时向4个库发起查询,
再在内存中合并数据,取最小集返回给应用,分库反而成为拖累。

2、数值Range分表

概念 按照时间区间或ID区间来切分。例如:将goods_id为11000的记录分到第一个表,10012000的分到第二个表,以此类推。

如图

优点

- 单表大小可控
- 天然便于水平扩展,后期如果想对整个分片集群扩容时,只需要添加节点即可,无需对其他分片的数据进行迁移
- 使用分片字段进行范围查找时,连续分片可快速定位分片进行快速查询,有效避免跨分片查询的问题。

缺点

- 热点数据成为性能瓶颈。
例如按时间字段分片,有些分片存储最近时间段内的数据,可能会被频繁的读写,而有些分片存储的历史数据,则很少被查询

3、一致性Hash算法

一致性Hash算法能很好的解决因为Hash取模而产生的分片集群扩容时,需要迁移旧的数据的难题。至于具体原理这里就不详细说,

可以参考一篇博客:一致性哈希算法(分库分表,负载均衡等)

四、分库分表带来的问题

任何事情都有两面性,分库分表也不例外,如果采用分库分表,会引入新的的问题

1、分布式事务问题

使用分布式事务中间件解决,具体是通过最终一致性还是强一致性分布式事务,看业务需求,这里就不多说。

2、跨节点关联查询 Join 问题

切分之前,我们可以通过Join来完成。而切分之后,数据可能分布在不同的节点上,此时Join带来的问题就比较麻烦了,考虑到性能,尽量避免使用Join查询。

解决这个问题的一些方法:

全局表

全局表,也可看做是 "数据字典表",就是系统中所有模块都可能依赖的一些表,为了避免跨库Join查询,可以将 这类表在每个数据库中都保存一份。这些数据通常

很少会进行修改,所以也不担心一致性的问题。

字段冗余

利用空间换时间,为了性能而避免join查询。例:订单表保存userId时候,也将userName冗余保存一份,这样查询订单详情时就不需要再去查询"买家user表"了。

数据组装

在系统层面,分两次查询。第一次查询的结果集中找出关联数据id,然后根据id发起第二次请求得到关联数据。最后将获得到的数据进行字段拼装。

3、跨节点分页、排序、函数问题

跨节点多库进行查询时,会出现Limit分页、Order by排序等问题。分页需要按照指定字段进行排序,当排序字段就是分片字段时,通过分片规则就比较容易定位到指定的分片;

当排序字段非分片字段时,就变得比较复杂了。需要先在不同的分片节点中将数据进行排序并返回,然后将不同分片返回的结果集进行汇总和再次排序,最终返回给用户。

4、全局主键避重问题

如果都用主键自增肯定不合理,如果用UUID那么无法做到根据主键排序,所以我们可以考虑通过雪花ID来作为数据库的主键,

有关雪花ID可以参考我之前写的博客:静态内部类单例模式实现雪花算法

5、数据迁移问题

采用双写的方式,修改代码,所有涉及到分库分表的表的增、删、改的代码,都要对新库进行增删改。同时,再有一个数据抽取服务,不断地从老库抽数据,往新库写,

边写边按时间比较数据是不是最新的。

<think>好的,用户现在想了解分库分表理论知识和具体实现方式。我需要先回顾之前给他的回答,确保这次的内容不重复,同时补充新的信息。用户之前已经询问过事务管理机制,现在可能希望更全面地了解分库分表的基础理论和不同实现方法。 首先,用户提供的引用材料提到了分库分表的基本概念、目的、挑战,以及Sharding-JDBC的应用。我需要整合这些信息,同时结合之前的回答结构,确保逻辑清晰。用户可能对垂直拆分和水平拆分的区别不太清楚,需要详细解释,并举例说明。 接下来,具体实现方式部分,用户可能需要知道如何选择分片键,以及不同中间件的比较。之前的回答提到了ShardingSphere和Seata的集成,这里可以进一步扩展其他工具,如MyCat,并比较它们的优缺点。 用户还可能关心实际应用中的注意事项,比如如何避免跨库事务,分片策略的选择等。需要结合引用中的信息,如引用[2]提到的避免分布式事务的方法,强调合理配合分库分表的重要性。 此外,用户可能对分库分表的适用场景和常见问题感兴趣,比如扩容和数据迁移的挑战。需要给出实际案例,比如电商订单表的拆分,帮助用户理解理论应用。 最后,确保回答结构清晰,分点说明理论和实现,结合代码示例或配置示例,增强实用性。同时,生成的相关问题要针对用户可能进一步探索的方向,比如如何选择分片策略,或者如何处理分布式事务,引导用户深入学习。</think>#### 分库分表理论与实现方法详解 --- ### 一、分库分表的核心理论 1. **核心目标** 通过数据拆分解决数据库性能瓶颈,包括: - **存储容量扩展**:突破单库单表存储上限(如MySQL单表建议不超过2000万行)[^3] - **性能提升**:降低单节点I/O压力,提升查询和写入效率 - **高可用保障**:通过数据冗余和分布式架构增强容灾能力 2. **拆分维度** | **拆分类型** | **定义** | **示例** | |--------------|--------------------------------------------------------------------------|---------------------------------------| | 垂直拆分 | 按业务模块拆分表或库(字段维度) | 将用户表与订单表拆分到不同库[^3] | | 水平拆分 | 按数据分布规则拆分表或库(数据行维度) | 将用户表按ID取模分到10个库中[^1] | 3. **分片策略** - **哈希分片**:通过哈希函数均匀分布数据(如`shard_key = user_id % 1024`) - **范围分片**:按区间划分(如时间范围`2023-01~2023-12`) - **一致性哈希**:解决扩容时的数据迁移问题(如数据库扩容时仅迁移部分数据) --- ### 二、分库分表实现方式 #### 1. **垂直拆分实现** **适用场景**: - 不同业务模块耦合度低(如用户服务与商品服务分离) - 冷热数据分离(如历史订单归档) **代码示例(MySQL表拆分)**: ```sql -- 原始表 CREATE TABLE user_info ( id INT PRIMARY KEY, name VARCHAR(50), order_history TEXT -- 拆分后迁移到订单库 ); -- 拆分后用户表 CREATE TABLE user_core ( id INT PRIMARY KEY, name VARCHAR(50) ); -- 拆分后订单表(不同库) CREATE TABLE user_orders ( user_id INT, order_history TEXT ); ``` #### 2. **水平拆分实现** **分库分表中间件选型**: | **工具** | **特点** | |----------------|--------------------------------------------------------------------------| | Sharding-JDBC | 轻量级JDBC驱动,支持读写分离、分布式主键(如雪花算法)[^2] | | MyCat | 代理层方案,支持跨库JOIN(需注意性能损耗) | | Vitess | Kubernetes原生方案,适合超大规模分片(YouTube使用案例) | **Sharding-JDBC配置示例**: ```yaml spring: shardingsphere: datasource: names: ds0,ds1 ds0: # 数据库0配置 type: com.zaxxer.hikari.HikariDataSource driver-class-name: com.mysql.cj.jdbc.Driver jdbc-url: jdbc:mysql://db0:3306/db username: root password: root ds1: # 数据库1配置... rules: sharding: tables: user: actual-data-nodes: ds$->{0..1}.user_$->{0..15} # 分2库,每库16表 database-strategy: standard: sharding-column: user_id sharding-algorithm-name: db-hash-mod table-strategy: standard: sharding-column: user_id sharding-algorithm-name: table-hash-mod sharding-algorithms: db-hash-mod: type: HASH_MOD props: sharding-count: 2 # 分库数量 table-hash-mod: type: HASH_MOD props: sharding-count: 16 # 分表数量 ``` --- ### 三、关键技术挑战与解决方案 1. **分布式主键生成** - **雪花算法**:生成全局唯一ID(64位,包含时间戳+机器ID+序列号) ```java // Snowflake算法实现片段 long generateId() { long timestamp = System.currentTimeMillis(); return (timestamp << 22) | (workerId << 12) | sequence; } ``` - **数据库号段**:批量获取ID段(如每次获取1000个ID,美团Leaf方案) 2. **跨分片查询优化** - **广播表**:将小表复制到所有分片(如地区编码表) - **绑定表**:关联表使用相同分片规则(如订单表与订单明细表按order_id分片) 3. **数据迁移方案** ```mermaid graph LR A[全量迁移] -->|使用DataX工具| B[增量同步] B --> C[双写校验] C --> D[流量切换] ``` --- ### 四、最佳实践建议 1. **分片键选择原则** - 选择高基数字段(如用户ID而非性别) - 避免选择频繁更新的字段(如最后登录时间) 2. **分库分表节奏控制** - 初始阶段:单库单表 - 数据量达500万行:先分表不分库 - 数据量超过2000万行:启动分库分表 3. **典型应用场景** - **电商订单系统**:按用户ID分片,避免热点问题 - **物联网数据存储**:按设备ID+时间范围分片 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值