网上有两种说法:依赖冲突(conflicts of dependencies)以及多版本的Scala(likely have multiple major versions of scala that comes as transitive dependencies)
我暂时没有涉及到过多的依赖,所以考虑多版本的scala
因为我导入了spark的jar包,而spark2.4里通过运行spark-shell可以看到该版本的spark对应的scala的版本是2.11.8
于是去scala官网下载2.11.8的scala
在IDEA中:Ctrl+Alt+Shift+s 保证scala-sdk为2.11.8
下图是添加spark jar包的位置,同样保证scala版本为2.11.8
问题解决