大数据之Hudi数据湖_执行编译hudi命令和jar包位置_hudi和hive集成_和spark集成_和presto集成_和flink集成_和trino集成---大数据之Hudi数据湖工作笔记0004

本文档详细介绍了如何编译Hudi源码,并与Spark、Flink、Hive、Presto和Trino集成。在Hudi根目录执行编译命令,确保指定合适的Spark版本。编译完成后,可通过hudi-cli验证成功。集成Flink时,将hudi-flink-bundle的jar包放入Flink的lib目录;集成Hive时,将hudi-hive-sync-bundle和hudi-hadoop-mr-bundle的jar包放入Hive的lib目录。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在hudi源码的根目录执行就可以了,注意要指定spark的版本上面指定的是3.2 如果不指定默认是3,最好都指定一下.

这里在执行编译之前,我们可以先去看一下在hudi的源码目录下,有个README.md

这个文件

去看看她支持的java 版本和git maven版本

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

添柴程序猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值