用idea里的scala写spark 2.4.0方法时会提示找不到reduceByKey这个方法。
import org.apache.spark.SparkContext._
把上面这一行加入后还是提示找不到reduceByKey,但这时不用管错误提示,继续编译打包是成功的
在使用IDEA进行Scala开发时,尝试调用Spark2.4.0的reduceByKey方法会遇到IDE提示找不到该方法的问题。即使导入了SparkContext,错误提示仍然存在,但实际编译和打包过程不受影响。
用idea里的scala写spark 2.4.0方法时会提示找不到reduceByKey这个方法。
import org.apache.spark.SparkContext._
把上面这一行加入后还是提示找不到reduceByKey,但这时不用管错误提示,继续编译打包是成功的

被折叠的 条评论
为什么被折叠?