出现的错误是:Exception in thread “main” Java.lang.UnsupportedClassVersionError: org/apache/spark/launcher/main : Unsupported major.major.minor version 52.0
网上都说是jdk冲突了的问题,我的虚拟机中安装了两个版本的jdk一个是1.7.0_79另一个是1.8.0_191。我搜索了网上的Spark2.3.1+Hadoop2.7.1应该匹配的jdk版本是1.8的版本,我把jdk版本切换成1.8的版本之后就可以运行了。应该是jdk版本1.7低了的缘故。