继续上篇文章利用Intellij Idea在windows搭建spark 开发环境(含打jar包过程)(一) 以及Sparksql处理json日志[要求sparksql统计json日志条数存入mysql数据库]
本章将把打好的jar提交到集群运行。[如何打jar 包请看上文第一篇]
环境:centos7,windows10,intellij 2016.1.1
jar 包代码:[详细的步骤请看第二篇]
import scala.xml.XML
import scala.sys.process._
import org.apache.spark.sql.SQLContext
import scala.collection.mutable.ArrayBuffer
import scala.io.Source
import java.io.PrintWriter
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext
import java.sql.DriverManager
import java.sql.PreparedStatement
import java.sql.Connection
import org.apache.spark.sql.types.IntegerType
import org.apache.spark.sql.types.StructType
import scala.sys.process._
import org.apache.spark.sql.SQLContext
import scala.collection.mutable.ArrayBuffer
import scala.io.Source
import java.io.PrintWriter
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SQLContext
import java.sql.DriverManager
import java.sql.PreparedStatement
import java.sql.Connection
import org.apache.spark.sql.types.IntegerType
import org.apache.spark.sql.types.StructType

本文延续上篇内容,介绍如何在Windows环境下,使用Intellij IDEA创建的jar包,通过`spark-submit`命令提交到Spark Standalone集群运行。详细步骤包括jar包的制作和集群运行的配置。
最低0.47元/天 解锁文章
1694

被折叠的 条评论
为什么被折叠?



