Spark本地运行出错问题:Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Lja

本文解决了因使用不兼容版本的Spark与Scala而导致的问题。具体来说,原项目使用了spark-assembly-1.6.0-hadoop2.6.0与scala-sdk-2.12.1,但spark1.6仅支持scala-2.10.x版本。通过将Scala版本回退到2.10.6,成功解决了这一冲突。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


这问题是由于jar冲突导致的:

我原先的jar包是:

scala-sdk-2.12.1和spark-assembly-1.6.0-hadoop2.6.0

由于spark1.6的支持最高的scala版本是scala-2.10.X 所以换成scala-2.10.6可以解决问题。

下载地址:http://www.scala-lang.org/download/



评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值