Apache Hive 0.13 版本引入了事务特性,能够在 Hive 表上实现 ACID 语义,包括 INSERT/UPDATE/DELETE/MERGE 语句、增量数据抽取等。Hive 3.0 又对该特性进行了优化,包括改进了底层的文件组织方式,减少了对表结构的限制,以及支持条件下推和向量化查询。Hive 事务表的介绍和使用方法可以参考 Hive Wiki 和 各类教程,本文将重点讲述 Hive 事务表是如何在 HDFS 上存储的,及其读写过程是怎样的。
文件结构
插入数据
CREATE TABLE employee (id int, name string, salary int)
STORED AS ORC TBLPROPERTIES ('transactional' = 'true');
INSERT INTO employee VALUES
(1, 'Jerry', 5000),
(2, 'Tom', 8000),
(3, 'Kate', 6000);
INSERT 语句会在一个事务中运行。它会创建名为 delta
的目录,存放事务的信息和表的数据。
/user/hive/warehouse/employee/delta_0000001_0000001_0000
/user/hive/warehouse/employee/delta_0000001_0000001_0000/_orc_acid_version
/user/hive/warehouse/employee/delta_0000001_0000001_0000/bucket_00000
目录名称的格式为 delta_minWID_maxWID_stmtID
,即 delta 前缀、写事务的 ID 范围、以及语句 ID。具体来说:
- 所有 INSERT 语句都会创建
delta
目录。UPDATE 语句也会创建delta
目录,但会先创建一个delete
目录,即先删除、后插入。delete
目录的前缀是 delete_delta; - Hive 会为所有的事务生成一个全局唯一的 ID,包括读操作和写操作。针对写事务(INSERT、DELETE 等),Hive 还会创建一个写事务 ID(Write ID),该 ID 在表范围内唯一。写事务 ID 会编码到
delta
和delete
目录的名称中; - 语句 ID(Statement ID)则是当一个事务中有多条写入语句时使用的,用作唯一标识。
再看文件内容,_orc_acid_version
的内容是 2,即当前 ACID 版本号是 2。它和版本 1 的主要区别是 UPDATE 语句采用了 split-update 特性,即上文提到的先删除、后插入。这个特性能够使 ACID 表支持条件下推等功能,具体可以查看 HIVE-14035。bucket_00000
文件则是写入的数据内容。由于这张表没有分区和分桶,所以只有这一个文件。事务表都以 ORC 格式存储的,我们可以使用 orc-tools 来查看文件的内容:
$ orc-tools data bucket_00000
{"operation":0,"originalTransaction":1,"bucket":536870912,"rowId":0,"currentTransaction":1,"row":{"id":1,"name":"Jerry","salary":5000}}
{"operation":0,"originalTransaction":1,"bucket":536870912,"rowId":1,"currentTransaction":1,"row":{"id":2,"name":"Tom","salary":8000}}
{"operation":0,"originalTransaction":1,"bucket":536870912,"rowId":2,"currentTransaction":1,"row":{"id":3,"name":"Kate","salary":6000}}
输出内容被格式化为了一行行的 JSON 字符串,我们可以看到具体数据是在 row
这个键中的,其它键则是 Hive 用来实现事务特性所使用的,具体含义为:
operation
0 表示插入,1 表示更新,2 表示删除。由于使用了 split-update,UPDATE 是不会出现的;originalTransaction
是该条记录的原始写事务 ID。对于 INSERT 操作,该值和currentTransaction
是一致的。对于 DELETE,则是该条记录第一次插入时的写事务 ID;bucket
是一个 32 位整型,由BucketCodec
编码,各个二进制位的含义为:- 1-3 位:编码版本,当前是
001
; - 4 位:保留;
- 5-16 位:分桶 ID,由 0 开始。分桶 ID 是由 CLUSTERED BY 子句所指定的字段、以及分桶的数量决定的。该值和
bucket_N
中的 N 一致; - 17-20 位:保留;
- 21-32 位:语句 ID;
- 举例来说,整型
536936448
的二进制格式为00100000000000010000000000000000
,即它是按版本 1 的格式编码的,分桶 ID 为 1;
- 1-3 位:编码版本,当前是
rowId
是一个自增的唯一 ID,在写事务和分桶的组合中唯一;currentTransaction
当前的写事务 ID;row
具体数据。对于 DELETE 语句,则为null
。
我们可以注意到,文件中的数据会按 (originalTransaction
, bucket
, rowId
) 进行排序,这点对后面的读取操作非常关键。
这些信息还可以通过 row__id
这个虚拟列进行查看:
SELECT row__id, id, name, salary FROM employee;
输出结果为:
{"writeid":1,"bucketid":536870912,"rowid":0} 1 Jerry 5000
{"writeid":1,"bucketid":536870912,"rowid":1} 2 Tom 8000
{"writeid":1,"bucketid":536870912,"rowid":2} 3 Kate 6000
增量数据抽取 API V2
Hive 3.0 还改进了先前的 增量抽取 API,通过这个 API,用户或第三方工具(Flume 等)就可以利用 ACID 特性持续不断地向 Hive 表写入数据了。这一操作同样会生成 delta
目录,但更新和删除操作不再支持。
StreamingConnection connection = HiveStreamingConnection.newBuilder().connect();
connection.beginTransaction();
connection.write(