搭建zeppelin还是非常坎坷的,从最开始git clone源码下来打包,就会等上半天,弹个包下不来之类的报错。。
可以说是很扎心了,,切入正题:
1、spark 2.0及以上的版本,配置yarn的时候,需要的配置:
2、配置interpreter的时候,依赖的添加
如spark 需要添加你的机器hadoop版本:
hive则需要加上hadoop版本和hive-jdbc,hive-service版本:
这边的依赖,可以是添加本地路径,也可以像上面这样 自动下载。
3、interpreter中的localRepo
不难发现,每个interpreter中 都有这么一个位置,去对应目录下查看,可能会找不到。