Spark02: Spark运行任务三种方式

1. 直接在IDEA中执行,方便在本地环境调试代码

2. 使用spark-submit提交到集群执行【实际工作中使用】

3. 使用spark-shell,方便在集群环境调试代码

比如:需要连接数据库,无法在本地调试的情况。

spark-shell 实现了用户可以逐行输入代码,进行操作的功能。  即可以不像Java一样,编写完所有代码,然后编译才能运行。spark-shell 支持 Scala交互环境 和 python交互环境,在学习测试中可以使用spark-shell 进行API学习。

spark-shell会自动创建sparkContext

  • spark-shell的local模式
bin/spark-shell
  • spark-shell的独立集群模式
 bin/spark-shell --master spark://bigdata01:7077

 

 注意:需要先启动spark standalone集群

  • spark-shell的YARN模式
bin/spark-shell --master yarn --deploy-mode client

 会启动一个spark任务

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值