spark滥用count方法的后果,去掉count后,性能提升1倍

建好的代码如下

val result1 =sparksession.sql("select dxkk")//假设这个sql很耗时,1h

val executorBalanced = new BalancedClickhouseDataSource(jdbcLink, properties)
		val executorConn = executorBalanced.getConnection.asInstanceOf[ClickHouseConnectionImpl]


		//写入clickhouse
		properties.put("driver",driver)
		properties.put("socket_timeout","300000")
		properties.put("rewriteBatchedStatements","true")
		properties.put("batchsize","200000")
		properties.put("numPartitions","5")
		dropPartitons(executorConn,table1,getAfterDay(Day, -3))
		dropPartitons(executorConn, table1, Day)
		//注意这个就是罪魁祸首
		print(result1.count())
		result1.write.mode("append").jdbc(jdbcLink, table1, properties)

注意上面的result.count就是耗时的罪魁祸首,有count时候,sparkUI的stage图如下:
在这里插入图片描述
把count去掉后,图如下:
在这里插入图片描述
sql只被执行了一次,耗时没了,
解决方案1.把cunt去掉
解决方案2.给result上就爱presist做持久化

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值