一. DataX简介
1.1 DataX概述
DataX
是阿里巴巴开源的一个异构数据源离线同步工具
,致力于实现包括关系型数据库
(MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP等各种异构数据源之间
稳定高效的数据同步
功能。
源码地址:阿里云DataX源码
1.2 DataX支持的数据源
二. DataX架构原理
2.1 DataX设计理念
为了解决异构数据源同步
问题,DataX
将复杂的网状的同步链路
变成了星型数据链路
,DataX 作为中间传输载体
负责连接各种数据源
。当需要接入一个新的数据源的时候,只需要将此数据源对接
到DataX
,便能跟已有的数据源做到无缝数据同步。
2.2 DataX框架设计
DataX
本身作为离线数据同步框架
,采用 Framework + plugin架构
构建。将数据源读取和写入
抽象成为 Reader/Writer 插件
,纳入到整个同步框架中。
其中:
Reader:数据采集
模块,负责采集数据源的数据,将数据发送给Framework
。
Writer:数据写入
模块,负责不断向Framework取数据
,并将数据写入到目的端
。
Framework:用于连接reader和writer
,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换
等核心技术问题。
2.3 DataX运行流程
注:
Job:单个数据同步
的作业,称为一个Job
,一个Job
启动一个进程
。
Task:根据不同数据源的切分策略,一个Job会切分为多个Task
,Task
是DataX作业的最小单元
,每个Task
负责一部分数据的同步
工作。
TaskGroup:Scheduler调度模块
会对Task
进行分组
,每个Task组称为一个Task Group
。每个Task Group负责以一定的并发度运行
其所分得的Task,单个Task Group的并发度为5
。
Reader–>Channel–>Writer:每个Task启动后,都会固定启动Reader–>Channel–>Writer的线程来完成同步工作。
2.4 DataX调度决策思路
举例来说,用户提交了一个 DataX 作业,并且配置了总的并发度为 20,目的是对一个有 100 张分表的 mysql 数据源进行同步。DataX 的调度决策思路是:
1)DataX Job 根据分库分表切分策略,将同步工作分成 100 个 Task。
2)根据配置的总的并发度 20,以及每个 Task Group 的并发度 5,DataX 计算共需要分配 4 个TaskGroup。
3)4 个 TaskGroup 平分 100 个 Task,每一个 TaskGroup 负责运行 25 个 Task。
注:
默认DataX会把Mysql中的1个表切分成1个Task。
2.5 DataX 与 Sqoop 对比
三. DataX使用
3.1 DataX使用概述
3.1.1 DataX任务提交命令
用户只需根据自己同步数据的数据源
和目的地
选择相应的Reader
和 Writer
,并将 Reader 和 Writer 的信息配置在一个 json 文件
中,然后执行如下命令提交数据同步任务即可:
3.1.2 DataX配置文件格式
使用如下命令查看 DataX 配置文件模板
:
配置文件模板如下,json 最外层
是一个 job
,job
包含setting
和 content
两部分,其中setting
用于对整个 job 进行配置
,content 用户配置数据源和目的地
。
{
"job": {
"content": [
{
"reader": {
"name": "mysqlreader",
"parameter": {
"column": [],
"connection": [
{
"jdbcUrl": [],
"table": []
}
],
"password": "",
"username": "",
"where": ""
}
},
"writer": {
"name": "hdfswriter",
"parameter": {
"column": [],
"compress": "",
"defaultFS": "",
"fieldDelimiter": "",
"fileName": "",
"fileType": "",
"path": "",
"writeMode": ""
}
}
}
],
"setting": {
"speed": {
"channel": ""
}
}
}
}
Reader 和 Writer 的具体参数可参考官方文档,地址如下:DataX配置
3.2 同步MySQL数据到HDFS案例
案例要求:同步 gmall 数据库中 base_province 表数据到 HDFS 的/base_province 目录
需求分析:要实现该功能,需选用 MySQLReader
和 HDFSWriter
,MySQLReader
具有两种模式
分别是 TableMode
和 QuerySQLMode
,前者
使用 table,column,where 等属性
声明需要同步的数据;后者
使用一条 SQL 查询语句
声明需要同步的数据。
下面分别使用两种模式进行演示。
3.2.1 MySQLReader之TableMode
1)编写配置文件
(1)创建配置文件 base_province.json
(2)内容如下:
{
"job": {
"content": [
{
"reader": {
"name": "mysqlreader",
"parameter": {
"column": [
"id",
"name",
"region_id",
"area_code",
"iso_code",
"iso_3166_2"
],
"where": "id>=3",
"connection": [
{