PySpark 和 Scala 版本配置攻略

最近在使用LGBM包的时候,发现没有办法使用。出现了bug。一查发现是因为我的PySpark是3.5.4,Scala是2.13版本,版本过高。需要分别降级到3.4.4和2.12。

首先,从官网下载对应的PySpark和Scala版本,下面的链接就是PySpark3.4.4和Scala2.12版本的安装包:

https://archive.apache.org/dist/spark/spark-3.4.4/spark-3.4.4-bin-hadoop3.tgz

官网的图大概是这样:

需要注意,有的浏览器,比如Safari,在下载完成后,会自动把tgz解压,变为tar格式。我们不能让它这么做。后来我使用了从微信电脑版打开链接的方式,规避了这个问题。

下载完成后,把这个tgz移动到绝对路径/opt/module下面。

mv /data/lab/spark-3.5.4-bin-hadoop3-scala2.13.tgz /opt/module

这里我用的是自己的路径。

然后删掉原来的文件夹:

rm -r spark-3.5.4-bin-hadoop3-scala2.13

解压tgz:

tar -xzf spark-3.5.4-bin-hadoop3-scala2.13.tgz

xzf分别表示解压(extract),通过gz解压,文件名(file name)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值