Datax从Hive中导出数据写入到MySQL

读取Hive数据时,Datax内部支持的数据类型

Hive1.2.x 版本支持的数据类型已经很丰富了,但是Datax目前还支持不了这么多的数据类型,如果不注意的话,将会抛出很多奇怪的问题:比如 脏数据 的问题。

DataX 内部类型 Hive表 数据类型
Long TINYINT,SMALLINT,INT,BIGINT
Double FLOAT,DOUBLE
String String,CHAR,VARCHAR,STRUCT,MAP,ARRAY,UNION,BINARY
Boolean BOOLEAN
Date Date,TIMESTAMP

这里在官网中也有说明:传送门

脏数据错误类型的解决方法

通常在数仓中,为保证计算数据的准确性,我们会设计一些精度较高的数据类型,比如timestamp。
但当我们借助datax-web来自动完成字段映射的时候,通常不会将timestamp修改为datax内容支持的date类型,这个时候需要手动修改json中对应的字段为date。

2020-05-08 18:18:10.284 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.285 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.286 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.286 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.287 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.287 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.288 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.289 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.289 [0-0-0-reader] ERROR StdoutPluginCollector - 脏数据: 
{"message":"No enum constant com.alibaba.datax.plugin.reader.hdfsreader.DFSUtil.Type.TIMESTAMP","record":[],"type":"reader"}
2020-05-08 18:18:10.293 [0-0-0-reader] INFO  Reader$Task - end read source files...

这里就需要将json中的timestamp类型修改为date类型处理,如果精度很高的话,可以将类型修改为String。

如果还有其他脏数据类型的错误,可以参考上面提到的datax内部支持的数据类型,将字段调整为支持的数据类型即可解决脏数据类型错误。

附上脱敏后的json文件:

{
   
   
    "job": {
   
   
        "setting": {
   
   
            "speed": {
   
   
                "channel": 3
            }
当使用DataX数据Hive导出MySQL时,可能会出现数据丢失的情况。出现数据丢失的原因可能有以下几种: 1. 数据源问题:首先,需要检查Hive中的数据是否完整,是否包含了所有需要导出数据。可以通过查询Hive表来确认数据的完整性。 2. 数据过滤问题:在DataX的配置中,可能会对数据进行了过滤操作,例如使用了查询条件、选择了特定列等。如果过滤条件设置不正确,可能会导致一部分数据被漏掉。 3. 数据类型不匹配:HiveMySQL有着不同的数据类型,在数据导出过程中,可能会发生类型转换导致数据丢失的问题。在配置DataX时,需要确保HiveMySQL数据类型匹配,以避免数据丢失。 4. 数据写入问题:在将数据Hive导入到MySQL的过程中,可能会发生写入错误或网络中断等问题,导致数据丢失。在这种情况下,需要检查DataX的日志或MySQL的错误日志,以确定是否有异常情况发生。 为了解决数据丢失的问题,可以采取以下措施: 1. 检查数据源和目标数据库的数据完整性,确保数据源的数据没有问题。 2. 检查DataX的配置文件,确认过滤条件和数据类型匹配条件是否正确设置。 3. 对于数据量较大的导出任务,可以考虑分批导出,以降低出现问题的风险。 4.导出过程中,定期备份数据,并且在数据导出完成后进行数据校验,确保目标数据库中的数据和源数据一致。 总之,数据丢失问题可能是由于数据源、配置、数据类型或写入问题引起的。通过对数据源和配置进行仔细检查,以及采取一些预防措施,可以减少数据丢失的可能性。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值