DATAX之FTPReader

DATAX的FTPReader组件能读取远程FTP文件系统中的数据,特别是类CSV格式的TXT文件。它支持自定义分隔符、列裁剪、列常量和多种压缩格式(zip、gzip、bzip2)。FTPReader可递归读取文件并进行过滤,但不支持单个文件的多线程并发读取。配置参数包括协议、主机、端口、超时时间、连接模式、用户名、密码、路径、列信息等。用户需确保所有文件符合同一套schema并具备读取权限。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

快速介绍
        FtpReader提供了读取远程FTP文件系统数据存储的能力。在底层实现上,FtpReader获取远程FTP文件数据,并转换为DataX传输协议传递给Writer。
       本地文件内容存放的是一张逻辑意义上的二维表,例如CSV格式的文本信息。

功能与限制
       FtpReader实现了从远程FTP文件读取数据并转为DataX协议的功能,远程FTP文件本身是无结构化数据存储,对于DataX而言,FtpReader实现上类比TxtFileReader,有诸多相似之处。目前FtpReader支持功能如下:

  1. 支持且仅支持读取TXT的文件,且要求TXT中shema为一张二维表。
  2. 支持类CSV格式文件,自定义分隔符。
  3. 支持多种类型数据读取(使用String表示),支持列裁剪,支持列常量
  4. 支持递归读取、支持文件名过滤。
  5. 支持文本压缩,现有压缩格式为zip、gzip、bzip2。
  6. 多个File可以支持并发读取。
    暂时不能做到:
  7. 单个File支持多线程并发读取,
  8. 单个File在压缩情况下,从技术上无法支持多线程并发读取。

功能说明
配置样例

{
    "setting": {},
    "job": {
        "setting": {
            "speed": {
                "channel": 2
            }
        },
        "content": [
            {
                "reader": {
                    "name": "ftpreader",
                    "parameter": {
                        "protocol": "sftp",
                        "host": "192.168.18.162",
                        "port": 22,
                        "username": "hadoop",
                        "password": "hadoop",
                        "path": [
                            "/opt/data/*"
                        ],
                        "column": [
                            {
                                "index": 0,
                                "type": "long"
                            },
                            {
                                "index": 1,
                                "type": "boolean"
                            },
                            {
                                "index": 2,
                                "type": "double"
                            },
                            {
                                "index": 3,
                                "type": "string"
                            },
                            {
                                "index": 4,
                                "type": "date",
                                "format": "yyyy.MM.dd"
                            }
                        ],
                        "encoding": "UTF-8",
                        "fieldDelimiter": ","
                    }
                },
                "writer": {
                    "name": "ftpWriter",
                    "parameter": {
                        "path": "/opt/data/",
                        "fileName": "shihf",
                        "writeMode": "truncate",
                        "format": "yyyy-MM-dd"
                    }
                }
            }
        ]
    }
}

参数说明
● protocol
   ○ 描述:ftp服务器协议,目前支持传输协议有ftp和sftp。
   ○ 必选:是
   ○ 默认值:无
● host
   ○ 描述:ftp服务器地址。
   ○ 必选:是
   ○ 默认值:无
● port
   ○ 描述:ftp服务器端口。
   ○ 必选:否
   ○ 默认值:若传输协议是sftp协议,默认值是22;若传输协议是标准ftp协议,默认值是21
● timeout
   ○ 描述:连接ftp服务器连接超时时间,单位毫秒。
   ○ 必选:否
   ○ 默认值:60000(1分钟)
● connectPattern
   ○ 描述:连接模式(主动模式或者被动模式)。该参数只在传输协议是标准ftp协议时使用,值只能为:PORT (主动),PASV(被动)。两种模式主要的不同是数据连接建立的不同。对于Port模式,是客户端在本地打开一个端口等服务器去连接建立数据连接,而Pasv模式就是服务器打开一个端口等待客户端去建立一个数据连接。
   ○ 必选:否
   ○ 默认值:PASV
● username
   ○ 描述:ftp服务器访问用户名。
   ○ 必选:是
   ○ 默认值:无
● password
   ○ 描述:ftp服务器访问密码。
   ○ 必选:是
   ○ 默认值:无
● path
   ○ 描述:远程FTP文件系统的路径信息,注意这里可以支持填写多个路径。
当指定单个远程FTP文件,FtpReader暂时只能使用单线程进行数据抽取。
当指定多个远程FTP文件,FtpReader支持使用多线程进行数据抽取。线程并发数通过通道数指定。
当指定通配符,FtpReader尝试遍历出多个文件信息。例如: 指定/*代表读取/目录下所有的文件,指定/bazhen/*代表读取bazhen目录下游所有的文件。FtpReader目前只支持*作为文件通配符。
特别需要注意的是,DataX会将一个作业下同步的所有Text File视作同一张数据表。用户必须自己保证所有的File能够适配同一套schema信息。读取文件用户必须保证为类CSV格式,并且提供给DataX权限可读。
特别需要注意的是,如果Path指定的路径下没有符合匹配的文件抽取,DataX将报错。
   ○ 必选:是
   ○ 默认值:无
● column
   ○ 描述:读取字段列表,type指定源数据的类型,index指定当前列来自于文本第几列(以0开始),value指定当前类型为常量,不从源头文件读取数据,而是根据value值自动生成对应的列。
默认情况下,用户可以全部按照String类型读取数据,配置如下:
“column”: [“*”]
用户可以指定Column字段信息,配置如下:
{
“type”: “long”,
“index”: 0 //从远程FTP文件文本第一列获取int字段
},
{
“type”: “string”,
“value”: “alibaba” //从FtpReader内部生成alibaba的字符串字段作为当前字段
}
对于用户指定Column信息,type必须填写,index/value必须选择其一。
   ○ 必选:是
   ○ 默认值:全部按照string类型读取
● fieldDelimiter
   ○ 描述:读取的字段分隔符
   ○ 必选:是
   ○ 默认值:,
● compress
   ○ 描述:文本压缩类型,默认不填写意味着没有压缩。支持压缩类型为zip、gzip、bzip2。
   ○ 必选:否
   ○ 默认值:没有压缩
● encoding
   ○ 描述:读取文件的编码配置。
   ○ 必选:否
   ○ 默认值:utf-8
● skipHeader
   ○ 描述:类CSV格式文件可能存在表头为标题情况,需要跳过。默认不跳过。
   ○ 必选:否
   ○ 默认值:false
● nullFormat
   ○ 描述:文本文件中无法使用标准字符串定义null(空指针),DataX提供nullFormat定义哪些字符串可以表示为null。
例如如果用户配置: nullFormat:”\N”,那么如果源头数据是”\N”,DataX视作null字段。
   ○ 必选:否
   ○ 默认值:\N
● maxTraversalLevel
   ○ 描述:允许遍历文件夹的最大层数。
   ○ 必选:否
   ○ 默认值:100
● csvReaderConfig
   ○ 描述:读取CSV类型文件参数配置,Map类型。读取CSV类型文件使用的CsvReader进行读取,会有很多配置,不配置则使用默认值。
   ○ 必选:否
   ○ 默认值:无
常见配置:

"csvReaderConfig":{
        "safetySwitch": false,
        "skipEmptyRecords": false,
        "useTextQualifier": false
}

所有配置项及默认值,配置时 csvReaderConfig 的map中请严格按照以下字段名字进行配置:

boolean caseSensitive = true;
char textQualifier = 34;
boolean trimWhitespace = true;
boolean useTextQualifier = true;//是否使用csv转义字符
char delimiter = 44;//分隔符
char recordDelimiter = 0;
char comment = 35;
boolean useComments = false;
int escapeMode = 1;
boolean safetySwitch = true;//单列长度是否限制100000字符
boolean skipEmptyRecords = true;//是否跳过空行
boolean captureRawRecord = true;

类型转换
远程FTP文件本身不提供数据类型,该类型是DataX FtpReader定义:

DataX 内部类型|远程FTP文件 数据类型

| | Long |Long | | Double |Double| | String |String| | Boolean |Boolean | | Date |Date |
其中:
● 远程FTP文件 Long是指远程FTP文件文本中使用整形的字符串表示形式,例如”19901219”。
● 远程FTP文件 Double是指远程FTP文件文本中使用Double的字符串表示形式,例如”3.1415”。
● 远程FTP文件 Boolean是指远程FTP文件文本中使用Boolean的字符串表示形式,例如”true”、”false”。不区分大小写。
● 远程FTP文件 Date是指远程FTP文件文本中使用Date的字符串表示形式,例如”2014-12-31”,Date可以指定format格式。

测试

原始文件
[hadoop@cdh3 data]pwd/opt/data[hadoop@cdh3data] cat aa
2.14,true,33,hadoop,2018.03.08

执行datax命令

[hadoop@cdh2 data]$ python ../datax/bin/datax.py  ../datax/job/ftpread.json 

运行日志

[hadoop@cdh2 data]$ python ../datax/bin/datax.py  ../datax/job/ftpread.json 

DataX (DATAX-OPENSOURCE-3.0), From Alibaba !
Copyright (C) 2010-2017, Alibaba Group. All Rights Reserved.


2018-03-08 23:39:53.447 [main] INFO  VMInfo - VMInfo# operatingSystem class => sun.management.OperatingSystemImpl
2018-03-08 23:39:53.456 [main] INFO  Engine - the machine info  => 

        osInfo: Oracle Corporation 1.8 25.111-b14
        jvmInfo:        Linux amd64 2.6.32-431.el6.x86_64
        cpu num:        6

        totalPhysicalMemory:    -0.00G
        freePhysicalMemory:     -0.00G
        maxFileDescriptorCount: -1
        currentOpenFileDescriptorCount: -1

        GC Names        [PS MarkSweep, PS Scavenge]

        MEMORY_NAME                    | allocation_size                | init_size                      
        PS Eden Space                  | 256.00MB                       | 256.00MB                       
        Code Cache                     | 240.00MB                       | 2.44MB                         
        Compressed Class Space         | 1,024.00MB                     | 0.00MB                         
        PS Survivor Space              | 42.50MB                        | 42.50MB                        
        PS Old Gen                     | 683.00MB                       | 683.00MB                       
        Metaspace                      | -0.00MB                        | 0.00MB                         


2018-03-08 23:39:53.482 [main] INFO  Engine - 
{
        "content":[
                {
                        "reader":{
                                "name":"ftpreader",
                                "parameter":{
                                        "column":[
                                                {
                                                        "index":0,
                                                        "type":"long"
                                                },
                                                {
                                                        "index":1,
                                                        "type":"boolean"
                                                },
                                                {
                                                        "index":2,
                                                        "type":"double"
                                                },
                                                {
                                                        "index":3,
                                                        "type":"string"
                                                },
                                                {
                                                        "format":"yyyy.MM.dd",
                                                        "index":4,
                                                        "type":"date"
                                                }
                                        ],
                                        "encoding":"UTF-8",
                                        "fieldDelimiter":",",
                                        "host":"192.168.18.162",
                                        "password":"******",
                                        "path":[
                                                "/opt/data/*"
                                        ],
                                        "port":22,
                                        "protocol":"sftp",
                                        "username":"hadoop"
                                }
                        },
                        "writer":{
                                "name":"txtfilewriter",
                                "parameter":{
                                        "fileName":"shihf",
                                        "format":"yyyy-MM-dd",
                                        "path":"/opt/data/",
                                        "writeMode":"truncate"
                                }
                        }
                }
        ],
        "setting":{
                "speed":{
                        "channel":2
                }
        }
}

2018-03-08 23:39:53.504 [main] WARN  Engine - prioriy set to 0, because NumberFormatException, the value is: null
2018-03-08 23:39:53.506 [main] INFO  PerfTrace - PerfTrace traceId=job_-1, isEnable=false, priority=0
2018-03-08 23:39:53.507 [main] INFO  JobContainer - DataX jobContainer starts job.
2018-03-08 23:39:53.509 [main] INFO  JobContainer - Set jobId = 0
2018-03-08 23:39:53.992 [job-0] WARN  TxtFileWriter$Job - 您使用format配置日期格式化, 这是不推荐的行为, 请优先使用dateFormat配置项, 两项同时存在则使用dateFormat.
2018-03-08 23:39:54.033 [job-0] WARN  UnstructuredStorageWriterUtil - 您的encoding配置为空, 将使用默认值[UTF-8]
2018-03-08 23:39:54.034 [job-0] WARN  UnstructuredStorageWriterUtil - 您没有配置列分隔符, 使用默认值[,]
2018-03-08 23:39:54.034 [job-0] INFO  JobContainer - jobContainer starts to do prepare ...
2018-03-08 23:39:54.035 [job-0] INFO  JobContainer - DataX Reader.Job [ftpreader] do prepare work .
2018-03-08 23:39:54.044 [job-0] INFO  FtpReader$Job - 您即将读取的文件数为: [1]
2018-03-08 23:39:54.045 [job-0] INFO  JobContainer - DataX Writer.Job [txtfilewriter] do prepare work .
2018-03-08 23:39:54.045 [job-0] INFO  TxtFileWriter$Job - 由于您配置了writeMode truncate, 开始清理 [/opt/data/] 下面以 [shihf] 开头的内容
2018-03-08 23:39:54.047 [job-0] INFO  JobContainer - jobContainer starts to do split ...
2018-03-08 23:39:54.048 [job-0] INFO  JobContainer - Job set Channel-Number to 2 channels.
2018-03-08 23:39:54.049 [job-0] INFO  JobContainer - DataX Reader.Job [ftpreader] splits to [1] tasks.
2018-03-08 23:39:54.050 [job-0] INFO  TxtFileWriter$Job - begin do split...
2018-03-08 23:39:54.051 [job-0] INFO  TxtFileWriter$Job - splited write file name:[shihf__ec762a94_7fe0_480f_bc6a_bbe872bb1975]
2018-03-08 23:39:54.051 [job-0] INFO  TxtFileWriter$Job - end do split.
2018-03-08 23:39:54.051 [job-0] INFO  JobContainer - DataX Writer.Job [txtfilewriter] splits to [1] tasks.
2018-03-08 23:39:54.075 [job-0] INFO  JobContainer - jobContainer starts to do schedule ...
2018-03-08 23:39:54.082 [job-0] INFO  JobContainer - Scheduler starts [1] taskGroups.
2018-03-08 23:39:54.084 [job-0] INFO  JobContainer - Running by standalone Mode.
2018-03-08 23:39:54.094 [taskGroup-0] INFO  TaskGroupContainer - taskGroupId=[0] start [1] channels for [1] tasks.
2018-03-08 23:39:54.100 [taskGroup-0] INFO  Channel - Channel set byte_speed_limit to -1, No bps activated.
2018-03-08 23:39:54.100 [taskGroup-0] INFO  Channel - Channel set record_speed_limit to -1, No tps activated.
2018-03-08 23:39:54.114 [taskGroup-0] INFO  TaskGroupContainer - taskGroup[0] taskId[0] attemptCount[1] is started
2018-03-08 23:39:54.115 [0-0-0-writer] INFO  TxtFileWriter$Task - begin do write...
2018-03-08 23:39:54.115 [0-0-0-writer] INFO  TxtFileWriter$Task - write to file : [/opt/data/shihf__ec762a94_7fe0_480f_bc6a_bbe872bb1975]
2018-03-08 23:39:54.235 [0-0-0-reader] INFO  FtpReader$Task - reading file : [/opt/data/aa]
2018-03-08 23:39:54.278 [0-0-0-reader] INFO  UnstructuredStorageReaderUtil - CsvReader使用默认值[{"captureRawRecord":true,"columnCount":0,"comment":"#","currentRecord":-1,"delimiter":",","escapeMode":1,"headerCount":0,"rawRecord":"","recordDelimiter":"\u0000","safetySwitch":false,"skipEmptyRecords":true,"textQualifier":"\"","trimWhitespace":true,"useComments":false,"useTextQualifier":true,"values":[]}],csvReaderConfig值为[null]
2018-03-08 23:39:54.295 [0-0-0-writer] INFO  TxtFileWriter$Task - end do write
2018-03-08 23:39:54.329 [taskGroup-0] INFO  TaskGroupContainer - taskGroup[0] taskId[0] is successed, used[204]ms
2018-03-08 23:39:54.330 [taskGroup-0] INFO  TaskGroupContainer - taskGroup[0] completed it's tasks.
2018-03-08 23:40:04.110 [job-0] INFO  StandAloneJobContainerCommunicator - Total 1 records, 21 bytes | Speed 2B/s, 0 records/s | Error 0 records, 0 bytes |  All Task WaitWriterTime 0.000s |  All Task WaitReaderTime 0.175s | Percentage 100.00%
2018-03-08 23:40:04.110 [job-0] INFO  AbstractScheduler - Scheduler accomplished all tasks.
2018-03-08 23:40:04.111 [job-0] INFO  JobContainer - DataX Writer.Job [txtfilewriter] do post work.
2018-03-08 23:40:04.112 [job-0] INFO  JobContainer - DataX Reader.Job [ftpreader] do post work.
2018-03-08 23:40:04.113 [job-0] INFO  JobContainer - DataX jobId [0] completed successfully.
2018-03-08 23:40:04.115 [job-0] INFO  HookInvoker - No hook invoked, because base dir not exists or is a file: /opt/datax/hook
2018-03-08 23:40:04.118 [job-0] INFO  JobContainer - 
         [total cpu info] => 
                averageCpu                     | maxDeltaCpu                    | minDeltaCpu                    
                -1.00%                         | -1.00%                         | -1.00%


         [total gc info] => 
                 NAME                 | totalGCCount       | maxDeltaGCCount    | minDeltaGCCount    | totalGCTime        | maxDeltaGCTime     | minDeltaGCTime     
                 PS MarkSweep         | 0                  | 0                  | 0                  | 0.000s             | 0.000s             | 0.000s             
                 PS Scavenge          | 0                  | 0                  | 0                  | 0.000s             | 0.000s             | 0.000s             

2018-03-08 23:40:04.119 [job-0] INFO  JobContainer - PerfTrace not enable!
2018-03-08 23:40:04.120 [job-0] INFO  StandAloneJobContainerCommunicator - Total 1 records, 21 bytes | Speed 2B/s, 0 records/s | Error 0 records, 0 bytes |  All Task WaitWriterTime 0.000s |  All Task WaitReaderTime 0.175s | Percentage 100.00%
2018-03-08 23:40:04.123 [job-0] INFO  JobContainer - 
任务启动时刻                    : 2018-03-08 23:39:53
任务结束时刻                    : 2018-03-08 23:40:04
任务总计耗时                    :                 10s
任务平均流量                    :                2B/s
记录写入速度                    :              0rec/s
读出记录总数                    :                   1
读写失败总数                    :                   0

查看结果

[hadoop@cdh2 data]$ cat shihf__ec762a94_7fe0_480f_bc6a_bbe872bb1975 
2,true,33,hadoop,2018-03-08
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值