在mac下搭建pyspark需要安装的有:
1.JAVA JDK
2.Scala
3.apache-spark
4.Hadoop(可选)
5.pyspark
安装上面几个可以选择去官网下载安装包,解压后再自行配置环境变量。也可以选择使用brew进行安装,比较方便的一种安装方式。
如果你的电脑上没有安装brew的话,可以参考下面这篇文章进行安装brew,还是比较方便的。
https://www.jianshu.com/p/7ef9e0e4d3c2
只需要简单的使用
brew install scala
brew install apache-spark
brew install hadoop
安装完毕之后可以选择配置环境变量
使用vim ~/.bash_profile进入环境变量配置文件以设置环境变量
具体如下:
# HomeBrew
export HOMEBREW_BOTTLE_DOMAIN=https://mirrors.tuna.tsinghua.edu.cn/homebrew-bottles
export P
Mac环境下搭建PySpark详细指南

本文介绍了在mac操作系统中如何搭建PySpark环境,包括安装JAVA JDK、Scala、apache-spark、Hadoop(可选)和pyspark,并通过brew进行便捷安装。还提供了配置环境变量的步骤以及在Jupyter Notebook中使用PySpark的方法。
最低0.47元/天 解锁文章
1708

被折叠的 条评论
为什么被折叠?



