mac os环境搭建spark

1.eclipse按装scala ide 地址如下:
2.spark环境搭建
先安装scala
brew install scala
安装完成后
scala -version查看是否安装成功

下载完成后解压


然后配置scala和spark路径

vim /etc/profile

配置如下参数(自己本机spark和scala路径)



export SCALA_HOME=/usr/local/Cellar/scala
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/Users/lv/spark/spark-2.0.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

3.进行本机SSH配置,在主目录下输入如下命令:

ssh-keygen –t rsa –P ""

然后一直按回车直到结束,接着输入命令,追加私钥:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

最后需要做的一件事是在System Preferences->Sharing中选中Remote Login

4.启动Spark

首先进入Spark目录中的sbin子目录运行如下脚本启动Spark:
./start-all.sh


查看是否启动


使用spark shell 进行测试

进去Spark目录下的bin子目录运行如下脚本启动Spark shell:


./spark-shell

当看到如下界面的时候你已经成功了:

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值