数据治理(八):Atlas 集成 Hive

文章描述了如何使用Atlas来监控Hive的元数据,通过配置HiveHook将Hive的操作事件发送到Kafka,然后由Atlas的Ingest模块处理并存储到Janus图数据库。过程包括更新hive-site.xml,修改Hive-env.sh,复制必要配置文件和jar包,以及执行import-hive.sh脚本导入现有Hive元数据。

Atlas 集成 Hive

Atlas 可以针对多个不同的数据源,统一采用 kafka 作为中间消息传递队列,使元数据源与服务端采用异步方式进行沟通,减少元数据采集对正常业务效率的影响,但是目前的 Atlas 版本监控 Hive 中数据操作比较完善,但是监控 Sqoo(目前只支持 hive import)、Spark 等支持不好。

我们可以使用 Atlas 监控 Hive 中的元数据,这时需要配置 Hive Hook(钩子),在 Hive 中做的任何操作,都会被钩子所感应到,并以事件的形式发布到 kafka,然后,Atlas 的 Ingest 模块会消费到 Kafka 中的消息,并解析生成相应的 Atlas 元数据写入底层的 Janus 图数据库来存储管理,其原理如下图示:

atlas 安装之前,hive 中已存在的表,钩子是不会自动感应并生成相关元数据的,可以通过 atlas 的工具脚本来对已存在的 hive 库或表进行元数据导入,步骤如下:

一、配置 hive-site.xml

在 node3 Hive 客户端 $HIVE_HOME/conf/hive-site.xml 中追加写入:

<!-- 配置hook 钩子类 --><property>    <name>hive.exec.post.hooks</name>    <value>org.apache.atlas.hive.hook.HiveHook</value></property>

复制代码

二、

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值