代码中使用了两次
1.第一次使用
val fs = FileSystem.get(sparkSession.sparkContext.hadoopConfiguration)
第二次使用
2.sparkSession.sparkContext.parallelize(list)
改为下述一次生成,多次调用:
va sc=sparkSession.sparkContext
val fs = FileSystem.get(sc.hadoopConfiguration)
sc…parallelize(list)