spark代码中添加logger_JAVA代码如何设置SPARK的日志打印级别

本文介绍了一种在使用 Spark SQL 过程中遇到的问题及解决方案。问题表现为在添加 where 条件过滤时,系统会打印大量被过滤的记录,严重影响了 Spark SQL 的运行效率。文章提供了通过调整 Spark 日志级别来避免打印过滤信息的方法。

问题场景:在使用spark sql 增加where条件过滤时,会出现打印很多的被过滤掉的记录(几十万条),导致跑spark sql 特别慢!

var df2 = sqc.sql("SELECT * FROM T_COMMISIONRATEDEF WHERE T_INSURANCETYPE = '630' ORDER BY T_INSURANCETYPE DESC " )

执行时,打印截图:

解决方法:

设置spark 的日志级别,不打印过滤INFO信息

1)代码中使用呢代理设置:关键参考代码如下

import org.apache.log4j.Level

import org.apache.log4j.Level

Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)

Logger.getLogger("org.apache.hadoop").setLevel(Level.ERROR)

Logger.getLogger("org.apache.zookeeper").setLevel(Level.ERROR)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值