使用docker配置安装hadoop和spark
分别安装hadoop和spark镜像
安装hadoop镜像
选择的docker镜像地址,这个镜像提供的hadoop版本比较新,且安装的是jdk8,可以支持安装最新版本的spark。
docker pull uhopper/hadoop:2.8.1
安装spark镜像
如果对spark版本要求不是很高,可以直接拉取别人的镜像,若要求新版本,则需要对dockerfile进行配置。
环境准备
-
下载sequenceiq/spark镜像构建源码
git clone https://github.com/sequenceiq/docker-spark -
从Spark官网下载Spark 2.3.2安装包
-
将下载的文件需要放到docker-spark目录下
-
查看本地image,确保已经安装了hadoop
-
进入docker-spark目录,确认所有用于镜像构建的文件已经准备好
修改配置文件
-
修改Dockerfile为以下内容
-
FROM sequenceiq/hadoop-docker:2.7.0 MAINTAINER scottdyt #support for Hadoop 2.7.0 #RUN curl -s http://d3k
-

本文详细介绍了如何使用Docker分别安装Hadoop和Spark镜像。首先选择合适的Hadoop镜像,然后下载sequenceiq/spark源码并配置环境,包括从Spark官网获取2.3.2版本的安装包。接着,修改Dockerfile和bootstrap.sh文件,并构建自定义Spark镜像。最后,启动Spark2.3.1容器,或者选择预装Hadoop的镜像进行快速安装。参考链接提供了更多操作细节。

最低0.47元/天 解锁文章
3092

被折叠的 条评论
为什么被折叠?



