mysql 批量修改_优化SparkSQL读取kudu数据向Mysql写入效率低的问题

本文记录了实际工作中SparkSQL向Mysql写入数据效率低的解决过程。原始代码写入速度慢、负载高,原因是每次插入都启动mysql连接。通过查询资料,对saveToMysql方法参数设置,开启批量写入并设置大小、不开启事务,修改后写入效率显著提高。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

记录一次实际工作中SparkSQL向Mysql写入数据,效率很低很慢的解决过程。

原始代码如下:

object Kudu2Mysql {  def main(args: Array[String]): Unit = {    val sparkSession: SparkSession = SparkSession.builder()          .master("local[6]")      .appName("kudu2Mysql")            .getOrCreate()     val kuduMaster = "192.168.100.100:7051,192.168.100.100:7051,192.168.100.100:7051"     val kuduTable = "kudu_test"    val kuduSql ="""select * from tmp_kuduTable where day = '2020-03-16'"""      val kuduDatas = sparkSqlReadKudu(sparkSession, kuduMaster, kuduTable, kuduSql)     val mysqlTable = "kudu_test"    saveToMysql(kuduDatas, mysqlTable)  sparkSession.stop()}private def sparkSqlReadKudu(sparkSession: SparkSession, kuduMaster: String, kuduTable: String, sql: String) = {  val options = Map(      "kudu.master" -> kuduMaster,      "kudu.table" -> kuduTable    )     val kuduDatas: DataFrame = sparkSession.read      .format("org.apache.kudu.spark.kudu")        .options(options).load()         kuduDatas.createOrReplaceTempView("tmp_kuduTable")   val datas: DataFrame = sparkSession.sql(sql)    //datas.show()    datas      }private def saveToMysql(dataFrame: DataFrame, tableName:String): Unit ={  dataFrame.write.format("jdbc").mode(SaveMode.Append)         .option("url", "jdbc:mysql://127.0.0.1:3306/kudu)                 .option("dbtable", tableName)                  .option("user", "root")                 .option("password", "*********")                  .save() }

使用以上代码读取的kudu表数据为50000条,运行的速度很慢,插入几千条数据大概就要花费2分钟左右,数据大时,写入Mysql速度非常慢,且对Mysql造成的负载比较高。后来查询了一些资料,原来是因为每次插入数据都会启动mysql连接,非常消耗性能。查看官网资料,可以看到官方spark sql jdbc部分提供了参数。

url:要连接的JDBC URL。例如:jdbc:mysql://ip:3306

driver:用于连接到此URL的JDBC驱动程序的类名,列如:com.mysql.jdbc.Driver

batchsize:仅适用于write数据。JDBC批量大小,用于确定每次insert的行数。这可以帮助JDBC驱动程序调优性能。默认为1000。

isolationLevel:仅适用于write数据。事务隔离级别,适用于当前连接。它可以是一个NONE,READ_COMMITTED,READ_UNCOMMITTED,REPEATABLE_READ,或SERIALIZABLE,对应于由JDBC的连接对象定义,缺省值为标准事务隔离级别READ_UNCOMMITTED。

为此对saveToMysql方法中的参数进行设置,在url后面加上?rewriteBachedStatements=true,开启批量写入,然后设置批量写入的大小,batchsize,不开启事务。

修改后代码如下:

 private def saveToMysql(dataFrame: DataFrame, tableName:String): Unit ={                                                                         dataFrame.write.format("jdbc").mode(SaveMode.Append)                                                                               .option("url", "jdbc:mysql://127.0.0.1:3306/kudu?rewriteBatchedStatements=true)                                                                              .option("dbtable", tableName)      .option("user", "root")                                                                               .option("password", "*********")      .option("batchsize",10000)                                                                               .option("isolationLevel","NONE")      .save()                                                                                   }

修改完的代码,写入效率明显比原来的代码效率高很多。

关注更多IT技术,欢迎关注微信公众号:一点IT技术, 或扫描下方二维码关注一点IT技术

!!!

fc26c2bc30e0c2f6c009f28aa1201916.png

长安识别点击关注

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值