sparkJDBC mysql

本文介绍如何使用 Apache Spark 通过 JDBC 读取 MySQL 数据并进行数据写入操作。演示了配置 Spark 应用程序、设置连接属性、从 JSON 文件中读取数据及执行具体的 JDBC 读写操作等步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

import java.sql.DriverManager
import org.apache.spark.rdd.JdbcRDD
import java.util.Properties
import org.apache.spark.{ SparkContext, SparkConf }
import org.apache.spark.sql.Row
import org.apache.spark.sql.types.{ IntegerType, StringType, StructField, StructType }
import org.apache.spark.sql.DataFrame

object sparkJDBC {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("Simple Application").setMaster("local[*]")
    val sc = new SparkContext(conf)

    val url = "jdbc:mysql://localhost:3306/easyui"
    val MYSQL_CONNECTION_URL = url + "?user=" + "root" + "&password=";
    val sqlContext = new org.apache.spark.sql.SQLContext(sc)

    val usersDf = sqlContext.read.json("i:/4/users.txt")
    val sets = new Properties();
    sets.put("user", "root");
    sets.put("password", "");
    sets.put("driver", "com.mysql.jdbc.Driver");
    sets.put("overwrite", "false");
    val datas = sqlContext.read.jdbc(url, "zhao", "name", 1, 3, 1, sets)
    datas.foreach { v => println("name:" + v.get(0) + " age:" + v.get(1)) }

    usersDf.write.jdbc(url, "zhao", sets)
//    usersDf.insertIntoJDBC(MYSQL_CONNECTION_URL, "zhao", false);
//    usersDf.insertIntoJDBC(url, table, overwrite)
  }

}

 users.txt

{"name":"11","age":"12"}

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值