2.Flink、Spark、Hive集成Hudi 1.0.1
3.flink streaming写入hudi
目录
1. 版本介绍
maven:3.9.9
hudi:1.0.1
Spark:3.3.2
Flink:1.15.2
Hadoop:3.3.4
Hive:3.1.3
2. Hive集成hudi
2.1. 需要的jar包依赖
hudi-1.0.1\packaging\hudi-hive-sync-bundle\target\hudi-hive-sync-bundle-1.0.1.jar
hudi-1.0.1\packaging\hudi-hadoop-mr-bundle\target\hudi-hadoop-mr-bundle-1.0.1.jar
2.2. 集成
# 复制hudi依赖到hive的lib下
cp hudi-hive-sync-bundle-1.0.1.jar ${HIVE_HOME}/lib/
cp hudi-hadoop-mr-bundle-1.0.1.jar ${HIVE_HO

本文详细介绍了如何将Flink、Spark和Hive分别与Hudi进行集成,包括环境配置、jar包的处理、配置文件的修改以及各组件之间的交互测试。在Flink集成Hudi中,涉及内存建表和Hive Catalog同步,而在Spark集成Hudi中,重点在于Spark SQL的使用。Hive集成Hudi则包括了外部表的创建和管理。
订阅专栏 解锁全文
4033

被折叠的 条评论
为什么被折叠?



