1.法1:maven打包
pom.xml文件
maven-assembly-plugin
false
jar-with-dependencies
ch.kmeans2.SparkStreamingKMeansKafkaExample
make-assembly
package
assembly
org.scala-tools
maven-scala-plugin
2.15.2
scala-compile-first
compile
**/*.scala
scala-test-compile
testCompile
然后使用mvn clean package命令进行打包,如果提交到集群运行遇到Exception in thread "main" java.lang.AbstractMethodError,考虑项目中spark的版本和集群运行版本是否一直
2.法2:idea打包
Project->Module Setting->Artifacts



然后Build Artifact输出jar包
本文介绍两种打包Spark应用程序的方法:一是通过Maven使用pom.xml文件配置maven-assembly-plugin插件来实现;二是利用IntelliJ IDEA创建Artifacts并构建输出jar包。文章还提及了在集群上运行时可能遇到的版本不一致导致的问题。
780

被折叠的 条评论
为什么被折叠?



