Sylph安装过程遇到的坑及解决方法
1、下载安装包
由于官方没有提供编译好的安装包,且安装包编译过程很慢,我这边上传了该编译好的资源,点击下方链接下载。包下载解压后目录结构如下:
链接:https://pan.baidu.com/s/1_BNqpl0pkWj-FyHgRT-E4Q
提取码:qwer
2、准备好Spark和Flink安装环境
在etc/sylph/sylph-env.sh配置SPARK_HOME和FLINK_HOME已经HADOOP_CONF_DIR
Sylph项目启动时会检测SPARK_HOME和FLINK_HOME安装目录。
3、修改配置文件
根据自己需要修改etc/sylph/sylph.properties配置文件。
4、删除running表数据
版本sylph-0.6.0-alpha3-bin.tgz会自带一个JOB任务,会连接yarn,不通则会启动失败。一直再报错 需要在数据库存储。需要手动删除。
删除running表中的数据,百度云资源提供删除了running表数据的data.db文件
5、启动
执行bin/sylph启动项目,如果遇到下图问题:
解决方法是将hadoop yarn相关jar包拷贝到flink安装目录的lib目录下,如图: