1、因为生产环境的环境依赖不够,需要单独引用参数设置
./spark-submit
--master spark://ip:7077 #如果时本地模式,用local[n] ,n>1
--class com.ec.SparkConsumer \
--jars $(echo /home/rowen/libs/*.jar | tr ' ' ',') \ #批量引用环境需要的jar包
--packages org.apache.spark:spark-streaming-kafka-0-8_2.11:2.2.0 \ #因为生产环境没对应jar,所以用引用的依赖的gav坐标,让程序去远程仓库寻找。要求环境联网
本文介绍如何在生产环境中正确配置Spark应用,包括指定Master节点、加载必要的JAR包及依赖库等关键步骤。针对生产环境特有的依赖问题,文章提供了具体的解决办法。
3258

被折叠的 条评论
为什么被折叠?



