今天简单讲解一下应用spark1.5.2相关读取mysql数据到DataFrame的接口以及将DF数据存放到mysql中接口实现实例
同样我们的编程开发环境是不需要安装spark的,但是需要一台安装了mysql的服务器,我这里直接在本机安装了一个mysql,还有就是scala的编程环境。
注意本次使用的spark版本是1.5.2,相关引用的包请参考下图:
先看代码吧
package JDBC_MySql
import java.util.Properties
import org.apache.spark.sql.SaveMode
import org.apache.spark.{SparkConf, SparkContext}
/**
* Created by zhoubh on 2016/7/20.
*/
object mysqlDB {
case class zbh_test(day_id:String, prvnce_id:String,pv_cnts:Int)
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("mysql").setMaster("local[4]")
val sc = new SparkContext(conf)
//sc.addJar("D:\\workspace\\sparkApp\\lib\\mysql-connector-java-5.0.8-bin.jar")
val sqlContext = new org.apache.spark.sql.SQLContext(sc)