巨鲸任务调度平台常见问题解决方案

巨鲸任务调度平台常见问题解决方案

big-whale Spark、Flink等离线任务的调度以及实时任务的监控 big-whale 项目地址: https://gitcode.com/gh_mirrors/bi/big-whale

1. 项目基础介绍和主要编程语言

巨鲸任务调度平台(Big Whale)是一个为美柚大数据研发的分布式计算任务调度系统。它提供了对Spark、Flink等批处理任务的DAG调度和流处理任务的运行管理和状态监控。该平台具有Yarn应用管理、重复应用检测、大内存应用检测等功能,基于Spring Boot 2.0开发,支持简单快捷的部署。

主要编程语言为Java,同时使用了SSH、HTML、CSS、JavaScript等技术。

2. 新手常见问题及解决步骤

问题一:如何部署巨鲸任务调度平台?

解决步骤:

  1. 准备Java 1.8+和MySQL 5.1.0+环境。
  2. 下载项目或使用git clone克隆项目到本地。
  3. 创建数据库big-whale并运行提供的数据库脚本big-whale.sql
  4. 根据Spring Boot环境配置相关数据库账号密码以及SMTP信息。
  5. 修改big-whale.properties配置文件,设置SSH用户名、密码、钉钉告警开关等。
  6. 执行打包命令mvn clean package
  7. 检查端口17070是否被占用,如被占用,关闭占用的进程或修改项目端口号配置后重新打包。
  8. 拷贝target目录下的big-whale.jar,执行命令java -jar big-whale.jar启动项目。

问题二:如何进行初始配置?

解决步骤:

  1. 打开浏览器,访问http://localhost:17070
  2. 使用默认账号admin和密码admin登录。
  3. 点击“权限管理”->“用户管理”,修改当前账号的邮箱为合法且存在的邮箱地址,以确保邮件发送成功。
  4. 添加集群:在“集群管理”->“集群管理”->“新增”中,设置Yarn ResourceManager的WEB UI地址和程序包存储目录。
  5. 添加集群用户:在“集群管理”->“集群用户”->“新增”中配置平台用户可以使用的Yarn资源队列和代理用户。
  6. 添加代理:在“集群管理”->“代理管理”->“新增”中添加代理服务器信息。

问题三:如何创建和调度任务?

解决步骤:

  1. 在“离线调度”中,通过拖拽左侧工具栏的批处理任务图标,添加相应的DAG节点。
  2. 针对非“Shell”类型的批处理任务,上传对应的程序包(如Spark批处理任务的jar包)。
  3. 在代码编辑器中,可以使用“可视化视图”或“代码视图”进行编辑。
  4. 点击“测试”,检查当前节点是否正确配置并能正常运行。
  5. 将节点按照一定的顺序连接起来,构建完整的DAG。
  6. DAG构建完成后,点击“保存”,完成调度设置。
  7. 在“调度实例”中,可以查看调度实例列表、运行状态和节点启动日志。
  8. 通过“手动执行”,可以触发调度执行。

通过上述步骤,新手用户可以更好地理解并使用巨鲸任务调度平台,有效解决在部署和使用过程中可能遇到的问题。

big-whale Spark、Flink等离线任务的调度以及实时任务的监控 big-whale 项目地址: https://gitcode.com/gh_mirrors/bi/big-whale

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

Apache DolphinScheduler(incubator,原EasyScheduler)是一个大数据分布式工作流任务调度系统,主要解决大数据研发过程中ETL处理错综复杂的依赖关系,而不能直观监控任务健康状态等问题。DolphinScheduler以DAG流式的方式将Task组装起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及Kill任务等操作。 设计特点:一个分布式易扩展的可视化DAG工作流任务调度系统。致力于解决数据处理流程中错综复杂的依赖关系,使调度系统在数据处理流程中开箱即用。 其主要目标如下: 1、以DAG图的方式将Task按照任务的依赖关系关联起来,可实时可视化监控任务的运行状态 2、支持丰富的任务类型:Shell、MR、Spark、SQL(mysql、postgresql、hive、sparksql),Python,Sub_Process、Procedure等 3、支持工作流定时调度、依赖调度、手动调度、手动暂停/停止/恢复,同时支持失败重试/告警、从指定节点恢复失败、Kill任务等操作 4、支持工作流优先级、任务优先级及任务的故障转移及任务超时告警/失败 5、支持工作流全局参数及节点自定义参数设置 6、支持资源文件的在线上传/下载,管理等,支持在线文件创建、编辑 7、支持任务日志在线查看及滚动、在线下载日志等 8、实现集群HA,通过Zookeeper实现Master集群和Worker集群去中心化 9、支持对Master/Worker cpu load,memory,cpu在线查看 10、支持工作流运行历史树形/甘特图展示、支持任务状态统计、流程状态统计 11、支持补数 12、支持多租户 13、支持国际化 14、还有更多等待伙伴们探索
任务调度平台为美柚大数据研发的分布式计算任务调度系统,提供Spark、Flink等批处理任务的DAG执行调度和流处理任务的状态监测调度,并具有重复应用检测、大内存应用检测等功能。 服务基于Spring Boot 2.0开发,打包后即可运行。 环境准备: Java 1.8+ Mysql 5.1.0+ 安装: 1、创建数据库:big-whale 2、运行数据库脚本:big-whale.sql 3、根据Spring Boot环境,配置相关数据库账号密码,以及SMTP信息 4、配置:big-whale.properties 配置项说明 ssh.user: 拥有脚本执行权限的ssh远程登录用户名(平台会将该用户作为统一的脚本执行用户) ssh.password: ssh远程登录用户密码 dingding.enabled: 是否开启钉钉告警 dingding.watcher-token: 钉钉公共群机器人Token yarn.app-memory-threshold: Yarn应用内存上限(单位:MB),-1禁用检测 yarn.app-white-list: Yarn应用白名单列表(列表中的应用申请的内存超过上限,不会进行告警) 5、修改:$FLINK_HOME/bin/flink,参考:flink(因flink提交任务时只能读取本地jar包,故需要在执行提交命令时从hdfs上下载jar包并替换脚本中的jar包路径参数) 6、打包:mvn clean package 启动: 1、检查端口17070是否被占用,被占用的话,关闭占用的进程或修改项目端口号配置重新打包 2、拷贝target目录下的big-whale.jar,执行命令:java -jar big-whale.jar 初始配置 1、打开:http://localhost:17070 2、输入账号admin,密码admin 3、点击:权限管理->用户管理,修改当前账号的邮箱为合法且存在的邮箱地址,否则会导致邮件发送失败 4、添加集群 集群管理->集群管理->新增 “yarn管理地址”为Yarn ResourceManager的WEB UI地址 “程序包存储目录”为程序包上传至hdfs集群时的存储路径,如:/data/big-whale/storage “支持Flink任务代理用户”“流处理任务黑名单”和“批处理任务黑名单”为内部定制的任务分配规则,勿填 5、添加代理 集群管理->代理管理->新增 可添加多个实例(仅支持IP地址,可指定端口号,默认为22),执行脚本的时候会随机选择一个实例执行,在实例不可达的情况下,会继续随机选择下一个实例,在实例均不可达时执行失败 选择集群后,会作为该集群下提交Spark或Flink任务的代理之一 6、添加集群用户 集群管理->集群用户->新增 该配置的语义为:平台用户在所选集群下可以使用的Yarn资源队列(--queue)和代理用户(--proxy-user) 7、添加计算框架版本 集群管理->版本管理->新增 同一集群下不同版本的Spark或Flink任务的提交命令可能有所不同,如Spark 1.6.0版本的提交命令为spark-submit,Spark 2.1.0版本的提交命令为spark2-submit
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

翁然眉Esmond

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值