大数据组件源码编译

部署运行你感兴趣的模型镜像

1源码下载、编译

1.1Dinky

当前使用的是Dinky 1.0.3版,前端编译依赖的组件Node(v14.20.0)、Npm(6.14.17)、python(3.8)

组件

链接

Dinky

https://github.com/DataLinkDC/dinky/archive/refs/tags/v1.0.3.zip

Node

https://mirrors.huaweicloud.com/nodejs/

Npm

Python

https://www.python.org/downloads/

组件下载好之后,记得配置环境变量,指令如下

vi  /etc/profile

source /etc/profile

1.1.1Dinky前端编译

  1. cd dinky-web
  2. npm install
  3. npm add jquery
  4. npm run build

编译完成后,可以在dist目录下获取编译后的文件

1.1.2Dinky后端编译

  1. mvn clean
  2. mvn package -DskipTests=true -Dspotless.check.skip=true -Pflink-1.14 -Pscala-2.12 -Pprod -Pflink-single-version -Paliyun -Dhadoop.version=3.1.1

编译完成后在build目录会出现dinky-release-1.14-1.0.3.tar.gz

1.2Flink

当前使用的是Flink1.14版,编译依赖的组件为maven(3.9.9)

组件

链接

Maven

https://maven.apache.org/

Flink

https://archive.apache.org/dist/flink/flink-1.14.6/flink-1.14.6-src.tgz

组件下好后,可自行搜索配置

1.2.1Flink编译

编译前pom.xml依赖的hadoop版本修改如下:

<hadoop.version>2.4.1</hadoop.version> 改为 <hadoop.version>3.1.1</hadoop.version>

编译指令如下:

  1. mvn clean
  2. mvn package -DskipTests -Dspotless.check.skip=true -Pscala-2.12 -Pfast -Dhadoop.version=3.1.1

编译完成后,找到flink-dist/target/flink-1.14.6-bin文件夹,打包文件,指令如下

tar -czvf flink-1.14.6.tar.gz flink-1.14.6

1.3Hudi源码编译

hudi源码编译使用的是0.12.3

组件

链接

Hudi

https://dlcdn.apache.org/hudi/0.12.3/hudi-0.12.3.src.tgz

编译指令如下

  1. mvn package -DskipTests=true -Dspotless.check.skip=true -Pflink1.14 -Pscala-2.12 –Pspark2.4 -PskipShadeSources -Pflink-bundle-shade-hive2 –Prelease

您可能感兴趣的与本文相关的镜像

Python3.10

Python3.10

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值