真实迁移案例:从 Azkaban 到 DolphinScheduler 的选型与实践

一、为什么我们放弃了Azkaban?

我们最早选择用 LinkedIn 开源的 Azkaban 做调度,主要是看中它两个特点:一是界面清爽,操作简单;二是它用“项目”来管理任务,非常直观。那时候团队刚开始搭建数据平台,这种轻量又清晰的工具,正好符合我们的需要。其他还有其他原因:

  • 社区活跃(当时)
  • 部署简单,依赖少(仅需 MySQL + Web Server + Executor)
  • 支持 job 文件定义依赖,适合 DAG 场景

但随着业务规模扩大,Azkaban 的短板逐渐暴露:

  1. 缺乏任务失败自动重试机制

Azkaban 的重试策略极其原始:要么手动点击重跑,要么通过外部脚本轮询状态后触发。我们曾因一个 Hive 任务因临时资源不足失败,导致下游 20+ 个任务全部阻塞,运维不得不半夜手动干预。

  1. 权限粒度粗糙

Azkaban 的权限模型只有“项目级别”的读写权限,无法做到“用户A只能编辑任务X,不能动任务Y”。在多团队共用一个调度平台时,权限混乱导致误操作频发。

  1. 缺乏任务版本管理

每次修改 job 文件都会覆盖历史版本,无法回滚。我们曾因一次错误的参数修改,导致整个 ETL 流水线跑出错误数据,花了两天才定位到是哪个版本的 job 出了问题。

  1. 扩展性差

Azkaban 的插件机制确实不太给力,想接个企业微信告警、对一下内部的 CMDB,或者让它支持 Spark on K8s,基本都得去改源码。而且官方社区更新也慢,GitHub 上面一堆 issue 挂着,经常没人理。

反思: Azkaban 用在小团队、任务不复杂的时候还行,一旦数据平台规模上来了、团队变多了,就会发现它的架构有点跟不上了,各种限制就冒出来了。

二、为什么选择DolphinScheduler?

2022 年底,我们开始评估替代方案,对比了 Airflow、XXL-JOB、DolphinScheduler 等主流调度系统。最终选择 DolphinScheduler(以下简称 DS),主要基于以下几点:

  1. 原生支持丰富的任务类型

DS 内置 Shell、SQL、Spark、Flink、DataX、Python 等十几种任务类型,且支持自定义任务插件。我们无需再为每个任务类型写 wrapper 脚本。

  1. 完善的失败处理机制
  • 支持任务级重试(可配置重试次数、间隔)
  • 支持失败告警(邮件、钉钉、企业微信)
  • 支持“失败后跳过”或“失败后终止整个工作流”
  1. 细粒度权限控制

在DS平台里,权限管理做得很细致。从租户、项目、工作流到具体任务,层层都可以设置不同人员的操作权限。这样既保证了安全,又让不同团队能够顺畅协作,特别实用。

  1. 可视化 DAG + 版本管理

拖拽式 DAG 编辑,支持任务依赖、条件分支、子流程
工作流每次发布自动保存版本,支持回滚到任意历史版本

  1. 活跃的中文社区

作为 Apache 顶级项目,DS 在国内有大量用户和贡献者,文档完善,问题响应快。我们遇到的几个生产问题,都在社区群中 24 小时内得到解答。

三、真实迁移案例:从 Azkaban 到 DolphinScheduler

背景

  • 原系统:Azkaban 3.80,约 150 个工作流,日均任务数 800+
  • 目标:平滑迁移至 DS 3.1.2,不影响业务数据产出

迁移步骤

  1. 任务梳理与分类

    • 对现有的 Azkaban 作业做个盘点。先按任务类型(例如 Shell 脚本、Hive SQL、Spark 作业)分个类,然后重点梳理出它们之间的强依赖关系,把整个任务的上下游链路明确下来。
    • 标记强依赖关系(如 A → B → C)
  2. DS 环境搭建与测试

    • 部署 DS 集群(Master + Worker + API Server + Alert Server)
    • 创建租户、用户、项目,配置资源队列(YARN)
  3. 任务重构与验证

    • 将 Azkaban 的 .job 文件转换为 DS 的工作流定义
    • 重点处理:参数传递(Azkaban 用 ${},DS 用${} 但语法略有不同);依赖逻辑(Azkaban 用 dependencies,DS 用 DAG 连线)
    • 在测试环境跑通全流程,验证数据一致性
  4. 灰度切换

  • 先迁移非核心报表任务(如运营日报)
  • 观察一周无异常后,逐步迁移核心链路(如用户行为日志 ETL)
  • 最终全量切换,保留 Azkaban 只读状态 1 个月用于回溯

踩坑记录

  • 坑1:参数传递不一致

Azkaban 中 ${date}会自动注入当前日期,而 DS 需要显式定义全局参数或使用系统内置变量 {system.datetime}。我们写了个脚本自动转换参数语法。

  • 坑2:资源隔离问题

之前我们所有任务都挤在同一个YARN队列里,结果那些跑得久的大任务动不动就把资源全占了,搞得其他小任务一直卡着。后来我们给每个业务线都单独开了账户和YARN队列,这下总算清净了,大家各跑各的,谁也不耽误谁。

  • 坑3:告警风暴

任务失败动不动就告警,一开始每天狂响上百条,实在头疼。后来我们调整了策略:只给核心任务开实时告警,非核心的就每天汇总一下,发个邮件同步,清爽多了。

四、给后来者的具体建议

  1. 不要盲目追求“大而全”

如果你只有几十个 Shell 脚本任务,用 Cron + 简单监控可能效率更高一点。调度系统有运维成本,评估 ROI 再决定。

  1. 重视权限与租户设计

从第一天就规划好租户结构(如按业务线划分),避免后期权限混乱。建议开启“任务审批”功能,关键任务变更需 review。

  1. 建立任务健康度指标
  • 任务失败率
  • 平均运行时长波动
  • 依赖阻塞次数

我们用 Prometheus + Grafana 监控这些指标,提前发现潜在问题。

  1. 善用子流程(SubProcess)

复杂的 DAG 一多,就容易乱得像“一锅粥”。我们可以把那些常用的功能,比如数据质检、日志归档这些,打包成独立的子流程。这样一来,不仅复用起来方便,后期维护也省心多了。

  1. 备份与灾备不能少
  • 定期备份 DS 元数据库(MySQL/PostgreSQL)
  • 配置多 Master 高可用
  • 关键任务设置“跨集群容灾”(如主集群挂掉,自动切到备用集群)

五、关键对比速查表

技术选型不是终点,而是持续优化的起点。

Apache DolphinScheduler是一个新一代分布式大数据工作流任务调度系统,致力于“解决大数据任务之间错综复杂的依赖关系,整个数据处理开箱即用”。它以 DAG(有向无环图) 的方式将任务连接起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及 Kill任务等操作。目前已经有像IBM、腾讯、美团、360等400多家公司生产上使用。 调度系统现在市面上的调度系统那么多,比如老牌的Airflow, Oozie,Kettle,xxl-job ,Spring Batch等等, 为什么要选DolphinSchedulerDolphinScheduler 的定位是大数据工作流调度。通过把大数据和工作流做了重点标注. 从而可以知道DolphinScheduler的定位是针对于大数据体系。DolphinScheduler 发展很快 很多公司调度都切换到了DolphinScheduler,掌握DolphinScheduler调度使用势在必行,抓住新技术机遇,为跳巢涨薪做好准备。 优秀的框架都是有大师级别的人写出来的,包含了很多设计思想和技术。DolphinScheduler也不例外,它是一个非常优秀的框架,用到很多技术和设计思想,本课程会带大家深入DolphinScheduler框架源码,包括设计的思想和技术都会讲解,DolphinScheduler源码很多,会按照模块进行讲解,学习完课程后,不仅可以熟悉DolphinScheduler使用,而且可以掌握很多优秀的设计思想和技术,给自己的技术带来很大提升,为跳巢涨薪做好准备。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

DolphinScheduler社区

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值