import org.apache.spark.sql.SparkSession
object MysqlRead {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.master("local[6]")
.appName("mysql read")
.getOrCreate()
//从mysql中读取数据
//注意 提前需要在pom文件加入jdbc驱动依赖
val readDF = spark.read.format("jdbc")
.option("url", "jdbc:mysql://hadoop100:3306/spark_test")
.option("dbtable", "student10k")
.option("user", "root")
.option("password", "root")
.load()
readDF.show(1)
spark.stop()
}
}
使用SparkSql读取Mysql数据
最新推荐文章于 2025-04-08 21:57:53 发布