【问题分析】该问题主要是spark版本不匹配,SparkSession是在Spark2.0版本之后出现的,因此需要重新下载Spark2.0以上的版本才可以。
【自我问题分析】由于我使用的是【JAVA1.8,Hadoop2.6,spark1.6】这三个版本放在一起Pyspark是可以正常使用的。因此,我又下载可spark2.0配Hadoop2.6版本的,只需要将新下载的spark2.0.0-hadoop2.6版本的名改为spark,再将原来的spark重新命名为其他名称即可【就不用重新配置环境变量了】
【最终】最终我使用的是【Java1.8,Hadoop2.6,spark2.0】
spark中的SparkSession不好使【已解决】
最新推荐文章于 2023-09-20 23:18:23 发布