踩坑 | Win10+Anaconda3+Python3.7+Spyder4.0配置Pyspark

在Windows上配置Pyspark通常涉及安装Java、Scala和Spark,但其实使用Anaconda可以简化过程。作者分享了避免安装Java、Scala,直接通过conda安装pyspark的方法,并解决了在Anaconda环境中导入pyspark的问题。只需将Spark的Python相关文件复制到Anaconda的site-packages目录下,并在Spyder中设置Python Path Manager,即可成功运行Pyspark。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先,如果你用Anaconda,根本不用装一堆JDK SCALA之类!
(当然,如果你不用的话,有两点需要注意:环境变量不能有空格,拒绝装在Program Files中!jkd版本不要过高!

可能大多数人和我一一样,使用笔记本,一般是windows系统,但想学习spark,不想装Linux或虚拟机,其实windows也可以直接用spark,然后百度查询出很多spark在windows安装的教程,绝大多数是先让安装Java,然后是scala,接着是spark,最后还有Hadoop,还要注意Java和scala的版本兼容问题,还要注意scala与spark版本兼容问题,还要注意Java和scala安装路径不能有空,简直一大堆问题,一大堆的坑,我反复重装了两次java、四次 scala,搞了一天,最后在cmd命令窗口终于看到spark安装成功的标志,开心的要死。然后,想着在jupyter上用pyspark,按网上各种教程设置了半天,头都大了,因为按前面的操作安装,spark并不在Anaconda的库里面的,无法加载进来用。耗了两个多小时,最后我直接把\spark\python下的pyspark文件夹和l\spark\python\lib的py4j-0.10.7-src.zip解压以后,直接拷贝到Anaconda2\Lib\site-packages 下,然后在jupyter中import pyspark,成功了。后来再想想,是不是根本不需要前面安装的那一堆java啦、scala啦,甚至不用后面装的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值