spark基础知识(一)spark submit的提交参数

本文介绍如何在生产环境中正确配置Spark应用,包括指定Master节点、加载必要的JAR包及依赖库等关键步骤。针对生产环境特有的依赖问题,文章提供了具体的解决办法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、因为生产环境的环境依赖不够,需要单独引用参数设置

./spark-submit 
--master spark://ip:7077 #如果时本地模式,用local[n] ,n>1
--class com.ec.SparkConsumer  \
--jars $(echo /home/rowen/libs/*.jar | tr ' ' ',') \  #批量引用环境需要的jar包
--packages org.apache.spark:spark-streaming-kafka-0-8_2.11:2.2.0 \ #因为生产环境没对应jar,所以用引用的依赖的gav坐标,让程序去远程仓库寻找。要求环境联网

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值