代码如下,就是根据连接以及表信息读取表中的数据转换为 DataFrame
拿到 DataFrame 就可以十八般武艺各种操作了
object SparkSQLMysqlDemo {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder().appName("SparkSQLMysqlDemo").master("local[2]").getOrCreate()
val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:mysql://192.168.31.74:3306/mybatis")
.option("dbtable", "user")
.option("user", "root")
.option("password", "luffylucy")
.option("driver", "com.mysql.jdbc.Driver").load()
jdbcDF.printSchema()
jdbcDF.show()
spark.close()
}
}
记得添加数据库连接 pom :
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>5.1.38</version>
</dependency>
运行结果为
对比 Mysql 中的数据,一毛一样