sparkSQL 访问mysql数据

1、如果使用spark-shell 操作,需要修改spark-defaults.conf 配置
spark.executor.extraClassPath=/opt/software/hive/lib/mysql-connector-java-5.1.45-bin.jar
spark.driver.extraClassPath=/opt/software/hive/lib/mysql-connector-java-5.1.45-bin.jar
package com.hihi.learn.sparkSql
import java.util.Properties
import org.apache.spark.sql.{SaveMode, SparkSession}

object MySqlDemo {

  val url = "jdbc:mysql://hadoop001:3306"
  val table = "soctt.dept"
  val dBuser = "root"
  val dBpwd = "123456"
  val prop = new Properties()
  prop.setProperty("user", "root")
  prop.setProperty("password", "123456")
  case class DeptRecord(deptno: Int, dname: String, loc: String)

  def main(args: Array[String]): Unit = {

    val spark = SparkSession
      .builder()
      .appName("Mysql Demo.")
      .master("local")
      .getOrCreate()

    readFromMysql(spark)
    writeToMysql(spark)
    readFromMysql(spark)
  }

  // 从mysql读取数据
  def readFromMysql(spark: SparkSession): Unit = {
    val jdbcDF  = spark.read.format("jdbc")
      .option("url", url)
      .option("dbtable", table)
      .option("user", dBuser)
      .option("password", dBpwd).load()

    jdbcDF.show()
  }

  // 向mysql写数据
  def writeToMysql(spark: SparkSession): Unit = {
    val arr = Array(
      DeptRecord(50, "AA", "aa"),
      DeptRecord(60, "BB", "bb")
    )
    val jdbcDF = spark.createDataFrame(arr)
    jdbcDF.write.mode(SaveMode.Append).jdbc(url, table, prop)
  }
}



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值