linux系统查看当前运行的jar包的控制台_Spark在MaxCompute的运行方式

本文详细介绍了Spark系统概述,包括Spark在客户端、DataWorks以及本地idea测试环境的配置和使用方法。从下载客户端到解压、配置Spark-default.conf,再到将代码打包成jar包并在ECS上运行,以及在DataWorks中创建ODPS Spark节点并上传jar包资源,提交运行。同时,也提到了在idea中打开模板代码、安装Scala插件和配置相关依赖的过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、Spark系统概述

0734da7ad4de554dc7da62b0d425de05.png

左侧是原生Spark的架构图,右边Spark on MaxCompute运行在阿里云自研的Cupid的平台之上,该平台可以原生支持开源社区Yarn所支持的计算框架,如Spark等。

二、Spark运行在客户端的配置和使用

2.1打开链接下载客户端到本地

http://odps-repo.oss-cn-hangzhou.aliyuncs.com/spark/2.3.0-odps0.30.0/spark-2.3.0-odps0.30.0.tar.gz?spm=a2c4g.11186623.2.12.666a4b69yO8Qur&file=spark-2.3.0-odps0.30.0.tar.gz

2.2将文件上传的ECS上

83d2de181256818df619e4b4c4260e19.png

2.3将文件解压

tar -zxvf spark-2.3.0-odps0.30.0.tar.gz

2.4配置Spark-default.conf

# spark-defaults.conf
# 一般来说默认的template只需要再填上MaxCompute相关的账号信息就可以使用Spark
spark.hadoop.odps.project.name =
spark.hadoop.odps.access.id =
spark.hadoop.odps.access.key =

# 其他的配置保持自带值一般就可以了
spark.hadoop.odps.end.point = http://service.cn.maxcompute.aliyun.com/api
spark.hadoop.odps.runtime.end.point = http://service.cn.maxcompute.aliyun-inc.com/api
spark.sql.catalogImplementation=odps
spark.hadoop.odps.task.major.version = cupid_v2
spark.hadoop.odps.cupid.container.image.enable = true
spark.hadoop.odps.cupid.container.vm.engine.type = hyper

2.5在github上下载对应代码

https://github.com/aliyun/MaxCompute-Spark

2.5将代码上传到ECS上进行解压

unzip MaxCompute-Spark-master.zip

2.6将代码打包成jar包(确保安装Maven)

cd MaxCompute-Spark-master/spark-2.x
mvn clean package

2.7查看jar包,并进行运行

bin/spark-submit --master yarn-cluster --class com.aliyun.odps.spark.examples.SparkPi 
MaxCompute-Spark-master/spark-2.x/target/spark-examples_2.11-1.0.0-SNAPSHOT-shaded.jar

三、Spark运行在DataWorks的配置和使用

3.1进入DataWorks控制台界面,点击业务流程

d401509db15bc7b905b8ebf5616444ca.png

3.2打开业务流程,创建ODPS Spark节点

882cfa61d5b342f0851ea42d4282af49.png

3.3上传jar包资源,点击对应的jar包上传,并提交

e442cd57cfa42c0263e2ba45b38ee794.png

41fe83fe7d048cd98e8429c3095f3454.png

4e0a56f02c6f2b37ebff22e125e6f3bb.png

3.4配置对应ODPS Spark的节点配置点击保存并提交,点击运行查看运行状态

2439f0d35e16fb6dcd07c7adca7b4a72.png

四、Spark在本地idea测试环境的使用

4.1下载客户端与模板代码并解压

客户端:
http://odps-repo.oss-cn-hangzhou.aliyuncs.com/spark/2.3.0-odps0.30.0/spark-2.3.0-odps0.30.0.tar.gz?spm=a2c4g.11186623.2.12.666a4b69yO8Qur&file=spark-2.3.0-odps0.30.0.tar.gz

450a90dd4b8fab20e6b65b640a5129ef.png

模板代码:

https://github.com/aliyun/MaxCompute-Spark

4.2打开idea,点击Open选择模板代码

e154dbf15c218d1e4113c011ca043e3d.png

327899666b7c36fc741f0a5eb00bbd56.png

4.2安装Scala插件

a9eb7dcfceff2a197718fbe2367b86fe.png

882cbcfd4933800c86c62890a87618fa.png

4.3配置maven

3e2683b9a4fb84038f11ba5837ac8fa0.png

4.4配置JDK和相关依赖

e47ee66c8b53beb8e0b287ada8466933.png

9e514228a6a9b3919d3d908df097e57b.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值