package day09
import java.util.Properties
import org.apache.spark.SparkConf
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions
import org.apache.spark.sql.{DataFrame, Dataset, SaveMode, SparkSession}
/**
* @author yangkun
* @date 2020/10/29 9:24
* @version 1.0
*/
object Spark01_SQL_MySQL {
def main(args: Array[String]): Unit = {
//创建配置文件对象
val conf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("SparkSQL01_MySQL")
//创建SparkSession对象
val spark: SparkSession = SparkSession.builder().config(conf).getOrCreate()
import spark.implicits._
//向MySQL数据库中写入数据
val rdd: RDD[User] = spark.sparkContext.makeRDD(List(User("banzhang",20),User("jingjing",18)))
//将RDD转换为DF
//val df: DataFrame = rdd.toDF()
//df.write.format("jdbc").save()
//将RDD转换为DS
val ds: Dataset[User] = rdd.toDS()
ds.write.format("jdbc")
.option("url", "jdbc:mysql://hadoop100:3306/test")
.option("driver", "com.mysql.jdbc.Driver")
.option("user", "root")
.option("password", "123")
.option(JDBCOptions.JDBC_TABLE_NAME, "user")
.mode(SaveMode.Append)
.save()
spark.stop()
}
}
case class User(name:String,age:Int)
spark-sql 写入mysql
最新推荐文章于 2024-03-06 07:25:57 发布
本文介绍如何使用 Apache Spark 通过 Spark SQL 模块与 MySQL 数据库进行数据交互的方法。主要展示了如何创建 Spark 配置并建立 SparkSession,然后将 RDD 转换为 Dataset,并最终写入 MySQL 数据库的过程。
4330

被折叠的 条评论
为什么被折叠?



