[高级]关于分布式事务、两阶段提交协议、三阶提交协议

随着大型网站的各种高并发访问、海量数据处理等场景越来越多,如何实现网站的高可用、易伸缩、可扩展、安全等目标就显得越来越重要。为了解决这样一系列问题,大型网站的架构也在不断发展。提高大型网站的高可用架构,不得不提的就是分布式。在分布式一致性一文中主要介绍了分布式系统中存在的一致性问题。本文将简单介绍如何有效的解决分布式的一致性问题,其中包括什么是分布式事务二阶段提交三阶段提交

分布式一致性回顾

在分布式系统中,为了保证数据的高可用,通常,我们会将数据保留多个副本(replica),这些副本会放置在不同的物理的机器上。为了对用户提供正确的增\删\改\差等语义,我们需要保证这些放置在不同物理机器上的副本是一致的。

为了解决这种分布式一致性问题,前人在性能和数据一致性的反反复复权衡过程中总结了许多典型的协议和算法。其中比较著名的有二阶提交协议(Two Phase Commitment Protocol)、三阶提交协议(Three Phase Commitment Protocol)和Paxos算法

分布式事务

分布式事务是指会涉及到操作多个数据库的事务。其实就是将对同一库事务的概念扩大到了对多个库的事务。目的是为了保证分布式系统中的数据一致性。分布式事务处理的关键是必须有一种方法可以知道事务在任何地方所做的所有动作,提交或回滚事务的决定必须产生统一的结果(全部提交或全部回滚)

在分布式系统中,各个节点之间在物理上相互独立,通过网络进行沟通和协调。由于存在事务机制,可以保证每个独立节点上的数据操作可以满足ACID。但是,相互独立的节点之间无法准确的知道其他节点中的事务执行情况。所以从理论上讲,两台机器理论上无法达到一致的状态。如果想让分布式部署的多台机器中的数据保持一致性,那么就要保证在所有节点的数据写操作,要不全部都执行,要么全部的都不执行。但是,一台机器在执行本地事务的时候无法知道其他机器中的本地事务的执行结果。所以他也就不知道本次事务到底应该commit还是 roolback。所以,常规的解决办法就是引入一个“协调者”的组件来统一调度所有分布式节点的执行。

XA规范

X/Open 组织(即现在的 Open Group )定义了分布式事务处理模型。 X/Open DTP 模型( 1994 )包括应用程序( AP )、事务管理器( TM )、资源管理器( RM )、通信资源管理器( CRM )四部分。一般,常见的事务管理器( TM )是交易中间件,常见的资源管理器( RM )是数据库,常见的通信资源管理器( CRM )是消息中间件。    通常把一个数据库内部的事务处理,如对多个表的操作,作为本地事务看待。数据库的事务处理对象是本地事务,而分布式事务处理的对象是全局事务。   所谓全局事务,是指分布式事务处理环境中,多个数据库可能需要共同完成一个工作,这个工作即是一个全局事务,例如,一个事务中可能更新几个不同的数据库。对数据库的操作发生在系统的各处但必须全部被提交或回滚。此时一个数据库对自己内部所做操作的提交不仅依赖本身操作是否成功,还要依赖与全局事务相关的其它数据库的操作是否成功,如果任一数据库的任一操作失败,则参与此事务的所有数据库所做的所有操作都必须回滚。     一般情况下,某一数据库无法知道其它数据库在做什么,因此,在一个 DTP 环境中,交易中间件是必需的,由它通知和协调相关数据库的提交或回滚。而一个数据库只将其自己所做的操作(可恢复)影射到全局事务中。    

XA 就是 X/Open DTP 定义的交易中间件与数据库之间的接口规范(即接口函数),交易中间件用它来通知数据库事务的开始、结束以及提交、回滚等。 XA 接口函数由数据库厂商提供。 

二阶提交协议三阶提交协议就是根据这一思想衍生出来的。可以说二阶段提交其实就是实现XA分布式事务的关键(确切地说:两阶段提交主要保证了分布式事务的原子性:即所有结点要么全做要么全不做)

2PC

二阶段提交(Two-phaseCommit)是指,在计算机网络以及数据库领域内,为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种算法(Algorithm)。通常,二阶段提交也被称为是一种协议(Protocol))。在分布式系统中,每个节点虽然可以知晓自己的操作时成功或者失败,却无法知道其他节点的操作的成功或失败。当一个事务跨越多个节点时,为了保持事务的ACID特性,需要引入一个作为协调者的组件来统一掌控所有节点(称作参与者)的操作结果并最终指示这些节点是否要把操作结果进行真正的提交(比如将更新后的数据写入磁盘等等)。因此,二阶段提交的算法思路可以概括为:参与者将操作成败通知协调者,再由协调者根据所有参与者的反馈情报决定各参与者是否要提交操作还是中止操作。

所谓的两个阶段是指:第一阶段:准备阶段(投票阶段)和第二阶段:提交阶段(执行阶段)

准备阶段

事务协调者(事务管理器)给每个参与者(资源管理器)发送Prepare消息,每个参与者要么直接返回失败(如权限验证失败),要么在本地执行事务,写本地的redo和undo日志,但不提交,到达一种“万事俱备,只欠东风”的状态。

可以进一步将准备阶段分为以下三个步骤:

1)协调者节点向所有参与者节点询问是否可以执行提交操作(vote),并开始等待各参与者节点的响应。

2)参与者节点执行询问发起为止的所有事务操作,并将Undo信息和Redo信息写入日志。(注意:若成功这里其实每个参与者已经执行了事务操作)

3)各参与者节点响应协调者节点发起的询问。如果参与者节点的事务操作实际执行成功,则它返回一个"同意"消息;如果参与者节点的事务操作实际执行失败,则它返回一个"中止"消息。

提交阶段

如果协调者收到了参与者的失败消息或者超时,直接给每个参与者发送回滚(Rollback)消息;否则,发送提交(Commit)消息;参与者根据协调者的指令执行提交或者回滚操作,释放所有事务处理过程中使用的锁资源。(注意:必须在最后阶段释放锁资源)

接下来分两种情况分别讨论提交阶段的过程。

当协调者节点从所有参与者节点获得的相应消息都为"同意"时:

1)协调者节点向所有参与者节点发出"正式提交(commit)"的请求。

2)参与者节点正式完成操作,并释放在整个事务期间内占用的资源。

3)参与者节点向协调者节点发送"完成"消息。

4)协调者节点受到所有参与者节点反馈的"完成"消息后,完成事务。

如果任一参与者节点在第一阶段返回的响应消息为"中止",或者 协调者节点在第一阶段的询问超时之前无法获取所有参与者节点的响应消息时:

1)协调者节点向所有参与者节点发出"回滚操作(rollback)"的请求。

2)参与者节点利用之前写入的Undo信息执行回滚,并释放在整个事务期间内占用的资源。

3)参与者节点向协调者节点发送"回滚完成"消息。

4)协调者节点受到所有参与者节点反馈的"回滚完成"消息后,取消事务。

  不管最后结果如何,第二阶段都会结束当前事务。

二阶段提交看起来确实能够提供原子性的操作,但是不幸的事,二阶段提交还是有几个缺点的:

1、同步阻塞问题。执行过程中,所有参与节点都是事务阻塞型的。当参与者占有公共资源时,其他第三方节点访问公共资源不得不处于阻塞状态。

2、单点故障。由于协调者的重要性,一旦协调者发生故障。参与者会一直阻塞下去。尤其在第二阶段,协调者发生故障,那么所有的参与者还都处于锁定事务资源的状态中,而无法继续完成事务操作。(如果是协调者挂掉,可以重新选举一个协调者,但是无法解决因为协调者宕机导致的参与者处于阻塞状态的问题)

3、数据不一致。在二阶段提交的阶段二中,当协调者向参与者发送commit请求之后,发生了局部网络异常或者在发送commit请求过程中协调者发生了故障,这回导致只有一部分参与者接受到了commit请求。而在这部分参与者接到commit请求之后就会执行commit操作。但是其他部分未接到commit请求的机器则无法执行事务提交。于是整个分布式系统便出现了数据部一致性的现象。

4、二阶段无法解决的问题:协调者再发出commit消息之后宕机,而唯一接收到这条消息的参与者同时也宕机了。那么即使协调者通过选举协议产生了新的协调者,这条事务的状态也是不确定的,没人知道事务是否被已经提交。

由于二阶段提交存在着诸如同步阻塞、单点问题、脑裂等缺陷,所以,研究者们在二阶段提交的基础上做了改进,提出了三阶段提交。

3PC

三阶段提交(Three-phase commit),也叫三阶段提交协议(Three-phase commit protocol),是二阶段提交(2PC)的改进版本。

与两阶段提交不同的是,三阶段提交有两个改动点。

1、引入超时机制。同时在协调者和参与者中都引入超时机制。

2、在第一阶段和第二阶段中插入一个准备阶段。保证了在最后提交阶段之前各参与节点的状态是一致的。

也就是说,除了引入超时机制之外,3PC把2PC的准备阶段再次一分为二,这样三阶段提交就有CanCommitPreCommitDoCommit三个阶段。

CanCommit阶段

3PC的CanCommit阶段其实和2PC的准备阶段很像。协调者向参与者发送commit请求,参与者如果可以提交就返回Yes响应,否则返回No响应。

1.事务询问 协调者向参与者发送CanCommit请求。询问是否可以执行事务提交操作。然后开始等待参与者的响应。

2.响应反馈 参与者接到CanCommit请求之后,正常情况下,如果其自身认为可以顺利执行事务,则返回Yes响应,并进入预备状态。否则反馈No

PreCommit阶段

协调者根据参与者的反应情况来决定是否可以记性事务的PreCommit操作。根据响应情况,有以下两种可能。

假如协调者从所有的参与者获得的反馈都是Yes响应,那么就会执行事务的预执行。

1.发送预提交请求 协调者向参与者发送PreCommit请求,并进入Prepared阶段。

2.事务预提交 参与者接收到PreCommit请求后,会执行事务操作,并将undo和redo信息记录到事务日志中。

3.响应反馈 如果参与者成功的执行了事务操作,则返回ACK响应,同时开始等待最终指令。

假如有任何一个参与者向协调者发送了No响应,或者等待超时之后,协调者都没有接到参与者的响应,那么就执行事务的中断。

1.发送中断请求 协调者向所有参与者发送abort请求。

2.中断事务 参与者收到来自协调者的abort请求之后(或超时之后,仍未收到协调者的请求),执行事务的中断。

doCommit阶段

该阶段进行真正的事务提交,也可以分为以下两种情况。

执行提交

1.发送提交请求 协调接收到参与者发送的ACK响应,那么他将从预提交状态进入到提交状态。并向所有参与者发送doCommit请求。

2.事务提交 参与者接收到doCommit请求之后,执行正式的事务提交。并在完成事务提交之后释放所有事务资源。

3.响应反馈 事务提交完之后,向协调者发送Ack响应。

4.完成事务 协调者接收到所有参与者的ack响应之后,完成事务。

中断事务 协调者没有接收到参与者发送的ACK响应(可能是接受者发送的不是ACK响应,也可能响应超时),那么就会执行中断事务。

1.发送中断请求 协调者向所有参与者发送abort请求

2.事务回滚 参与者接收到abort请求之后,利用其在阶段二记录的undo信息来执行事务的回滚操作,并在完成回滚之后释放所有的事务资源。

3.反馈结果 参与者完成事务回滚之后,向协调者发送ACK消息

4.中断事务 协调者接收到参与者反馈的ACK消息之后,执行事务的中断。


在doCommit阶段,如果参与者无法及时接收到来自协调者的doCommit或者rebort请求时,会在等待超时之后,会继续进行事务的提交。(其实这个应该是基于概率来决定的,当进入第三阶段时,说明参与者在第二阶段已经收到了PreCommit请求,那么协调者产生PreCommit请求的前提条件是他在第二阶段开始之前,收到所有参与者的CanCommit响应都是Yes。(一旦参与者收到了PreCommit,意味他知道大家其实都同意修改了)所以,一句话概括就是,当进入第三阶段时,由于网络超时等原因,虽然参与者没有收到commit或者abort响应,但是他有理由相信:成功提交的几率很大。 )

2PC与3PC的区别

相对于2PC,3PC主要解决的单点故障问题,并减少阻塞,因为一旦参与者无法及时收到来自协调者的信息之后,他会默认执行commit。而不会一直持有事务资源并处于阻塞状态。但是这种机制也会导致数据一致性问题,因为,由于网络原因,协调者发送的abort响应没有及时被参与者接收到,那么参与者在等待超时之后执行了commit操作。这样就和其他接到abort命令并执行回滚的参与者之间存在数据不一致的情况。


了解了2PC和3PC之后,我们可以发现,无论是二阶段提交还是三阶段提交都无法彻底解决分布式的一致性问题。Google Chubby的作者Mike Burrows说过, 

there is only one consensus protocol, and that’s Paxos” – all other approaches are just broken versions of Paxos.

意即世上只有一种一致性算法,那就是Paxos,所有其他一致性算法都是Paxos算法的不完整版。后面的文章会介绍这个公认为难于理解但是行之有效的Paxos算法。

 

<think>好的,用户现在问的是“验证数据是否一致有哪些方法”。首先,我需要回顾之前的对话历史。用户之前询问过Oracle数据库的数据量验证方法,我给出了几种具体的技术,比如使用元数据表、并行COUNT、闪回查询等。现在用户的问题更广泛,不限于Oracle或数据量,而是数据一致性的整体方法。 用户可能是在处理数据迁移、备份恢复、分布式系统或者多数据源同步的场景。他们需要确保数据在不同系统、表或时间点之间的一致性。除了之前提到的数据量,数据一致性还可能涉及内容、结构、事务完整性等方面。 接下来,我需要确定回答的结构。可能需要分层次,从基础到高级,涵盖不同的技术和方法。同时,要考虑到用户可能的技术背景,提供具体例子和适用场景,帮助他们选择合适的方法。 需要区分数据量验证和内容验证。数据量是基础,但数据一致还包括字段值、约束、索引等。可能需要提到哈希校验、对比工具、事务检查等方法。此外,不同数据库系统的特性,比如Oracle的闪回,其他数据库可能有类似或不同的机制。 还要考虑用户可能的错误,比如权限问题、性能影响、工具选择等。在方法中提示注意事项和最佳实践,比如大数据量时的分块处理,避免锁表,使用校验和时的哈希算法选择等。 最后,总结一个对比表格,帮助用户根据准确性、速度、场景选择合适的方案。确保回答清晰,结构合理,覆盖全面,同时结合之前的Oracle特定方法,扩展为通用的数据一致性验证方法。</think>以下是数据一致性验证的完整方法论体系,涵盖从基础到高阶的多种技术方案,根据实际场景可按需组合使用: --- ### **一、基础校验层(快速筛查)** #### **1. 元数据比对法** ```sql -- Oracle示例:对比表结构 SELECT column_name, data_type, data_length FROM all_tab_columns WHERE table_name = &#39;TABLE_A&#39; MINUS SELECT column_name, data_type, data_length FROM all_tab_columns@dblink_to_B WHERE table_name = &#39;TABLE_A&#39;; -- MySQL示例:检查表状态 SHOW TABLE STATUS LIKE &#39;table_a&#39;; ``` **适用场景**:表结构同步验证 **优势**:秒级响应,验证字段类型、索引、约束等元信息 --- #### **2. 基数校验法** ```sql -- 跨数据库对比(需DBLink) SELECT (SELECT COUNT(*) FROM table_a) AS cnt_a, (SELECT COUNT(*) FROM table_b@dblink) AS cnt_b FROM dual; ``` **优化技巧**: - 对大表使用`APPROX_COUNT_DISTINCT`(Hive/Spark场景) - 结合分区剪裁:`WHERE partition_col BETWEEN x AND y` --- ### **二、内容验证层(精准对比)** #### **1. 哈希指纹验证** ```sql -- Oracle高级哈希(按数据块计算) SELECT DBMS_CRYPTO.HASH( UTL_RAW.CAST_TO_RAW(DBMS_ROWID.ROWID_BLOCK_NUMBER(rowid)), DBMS_CRYPTO.HASH_SH256 ) AS block_hash FROM table_a GROUP BY DBMS_ROWID.ROWID_BLOCK_NUMBER(rowid); -- MySQL行级MD5校验 SELECT MD5(GROUP_CONCAT(col1,col2)) FROM table_a GROUP BY FLOOR(ROW_NUMBER() OVER()/1000); -- 每1000行分组 ``` **技术亮点**: - 支持**增量校验**:仅比对变化区块 - 可检测**数据错位**问题 --- #### **2. 全量数据对比** ```sql -- Oracle数据泵校验模式 expdp directory=DATA_PUMP_DIR dumpfile=verify.dmp tables=table_a verify_only=y -- PostgreSQL使用pg_compare工具 pg_compare -h host1 -d db1 -t table_a -H host2 -D db2 -T table_a ``` **最佳实践**: - 设置`DIRECT=y`参数绕过buffer cache - 对LOB字段使用`LOB_STORAGE=SECUREFILE`优化 --- ### **三、事务一致性验证** #### **1. SCN同步检查(Oracle专属)** ```sql -- 获取当前SCN SELECT current_scn FROM v$database; -- 创建保证一致性的查询 SELECT * FROM table_a AS OF SCN 1234567 MINUS SELECT * FROM table_b@dblink AS OF SCN 1234567; ``` **关键参数**: - UNDO_RETENTION:建议设置≥2倍最大事务时长 - RETENTION GUARANTEE:防止UNDO数据被覆盖 --- #### **2. 分布式事务验证** ```sql -- 两阶段提交协议检查 BEGIN DBMS_XA.XA_START(&#39;xid1&#39;, DBMS_XA.TMNOFLAGS); UPDATE table_a SET col1=val1; UPDATE table_b@dblink SET col2=val2; DBMS_XA.XA_END(&#39;xid1&#39;, DBMS_XA.TMSUSPEND); DBMS_XA.XA_PREPARE(&#39;xid1&#39;); DBMS_XA.XA_COMMIT(&#39;xid1&#39;, TRUE); END; ``` **异常处理**: - 监控`DBA_2PC_PENDING`视图处理悬挂事务 - 设置`COMMIT_POINT_STRENGTH`参数 --- ### **四、高阶校验方案** #### **1. 基于物化视图的增量校验** ```sql -- 创建刷新物化视图 CREATE MATERIALIZED VIEW mv_verify REFRESH FAST ON COMMIT AS SELECT col1, col2, ORA_ROWSCN FROM table_a@dblink MINUS SELECT col1, col2, ORA_ROWSCN FROM table_a; -- 查询差异数据 SELECT * FROM mv_verify; ``` **性能优化**: - 使用`REFRESH_METHOD => &#39;FORCE&#39;`自动选择刷新方式 - 结合`ON DEMAND`模式按需刷新 --- #### **2. 区块链式校验(防篡改)** ```sql -- Oracle区块链表特性 CREATE BLOCKCHAIN TABLE audit_table ( data_hash VARCHAR2(128), prev_hash VARCHAR2(128), created_time TIMESTAMP ) NO DROP UNTIL 365 DAYS IDLE NO DELETE LOCKED HASHING USING "SHA2_512"; ``` **核心机制**: - 自动计算数据哈希链 - 禁止UPDATE/DELETE操作 - 使用`DBMS_BLOCKCHAIN_TABLE.VERIFY_ROWS`验证完整性 --- ### **五、工具化解决方案** | 工具名称 | 适用场景 | 核心功能 | |-------------------|-------------------------|----------------------------| | Oracle Data Guard | 主备库一致性 | 实时Redo应用验证 | | GoldenGate Veridata | 异构数据源对比 | 行级差异检测 | | pg_diff | PostgreSQL跨实例对比 | 结构+数据同步验证 | | AWS DMS Validator | 云迁移场景 | 校验任务自动化 | | SQL*Loader | 外部数据加载校验 | BAD/DISCARD文件分析 | --- ### **六、校验策略选择矩阵** | 数据规模 | 实时性要求 | 推荐方案 | |----------|------------|----------------------------| | <1GB | 实时 | 内存哈希对比 | | 1-100GB | 准实时 | 增量物化视图+并行查询 | | 100GB+ | 离线 | 分块校验+区块链日志 | | TB级 | 周期性 | 抽样统计+机器学习异常检测 | --- ### **常见问题处理指南** 1. **校验中断恢复** ```sql -- Oracle闪回查询续传 SELECT MAX(id) FROM ( SELECT id FROM table_a WHERE rowid NOT IN (SELECT rowid FROM table_a@dblink) ) WHERE ROWNUM <= 1000; ``` 2. **字符集不一致** ```sql ALTER DATABASE CHARACTER SET AL32UTF8; -- 使用NLS_CHARACTERSET/NLS_NCHAR_CHARACTERSET参数 ``` 3. **时区差异处理** ```sql SELECT FROM_TZ(CAST(date_col AS TIMESTAMP), &#39;UTC&#39;) AT TIME ZONE &#39;Asia/Shanghai&#39; FROM table_a; ``` --- 根据实际业务需求,建议采用分层校验策略: 1. **日常监控**:元数据比对+基数校验(频率:每小时) 2. **关键业务**:哈希指纹+SCN一致性检查(频率:每天) 3. **重大变更**:全量对比+区块链校验(频率:变更前后) 通过组合使用这些方法,可构建从数据产生、传输到存储的全生命周期一致性保障体系。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值