因为griffin需要安装livy组件的支持,所以需要安装livy提交spark任务。
安装livy
(1)下载apache livy 下载地址:https://github.com/apache/incubator-livy/releases/tag/v0.7.0-incubating
(2)解压 unzip apache-livy-0.7.0-incubating-bin.zip
(3)修改配置文件conf/livy-env.sh,加入hadoop_home,spark_home,Hadoop_conf_dir,spark_conf_dir如下图所示(我的是CDH6.2的其他版本根据具体情况修改)

(4)修改conf/livy.conf
修改为yarn提交方式

最低0.47元/天 解锁文章
5013





