sparkcontext无法被序列化的问题,当我们在使用RDD调用map等算子,或者Dstream使用transform时,我们需要在它们的重写的方法里面,需要利用sparkcontext 比如把一个集合转化为RDD,但是一运行就报java.io.NotSerializableException: org.apache.spark.api.java.JavaSparkContext(sparkcontext序列化异常)

因为它是不能序列化的,这时候我们可以使用static来修饰:

设置一个全局变量,用static来修饰就可以了
public static JavaSparkContext sparkContext = null;

本文探讨了在使用Spark RDD和DStream时遇到的SparkContext序列化问题。当尝试将SparkContext用于转换操作时,可能会遇到序列化异常。文章提供了一个解决方案,即通过声明静态变量并使用static修饰符来避免这一问题。
3030

被折叠的 条评论
为什么被折叠?



