启动spark shell
Spark 和 Hadoop的交互
Spark部署模式包括:
- Local 模式:单机模式
- Standlone模式:使用Spark自带的简单集群管理器
- YARN 模式:使用YARN作为集群管理器
- Mesos 模式:使用Mesos作为集群管理器
启动spark shell
在SPAEK-SHELL中运行代码
- Spark Shell提供了简单的方式来学习Spark API
- Spark Shell 可以以实时、交互的方式来分析数据
- Spark Shell 支持Scala和Python
打开Spark的方式(在docker配置spark环境下)
- 启动软件 Docker Desktop
- 打开cmd控制台
- 依次输入命令
docker ps -a // 查看所有容器的容器
docker start spark-master // 启动spark-master节点
docker exec -it spark-master bash // 进入主节点的bash面板
cd spark // 选择spark目录
./bin/spark-shell // 打开spark-shell
进入scala编程界面: