集群间 Hive 数据 迁移 问题

本文介绍如何使用Hive从一个集群导出数据到本地,并上传到另一个集群的HDFS上,最后导入到新的Hive表中。具体步骤包括:1) 使用特定语法从Hive表导出数据到本地目录;2) 将本地文件上传到目标HDFS路径;3) 调整字段分隔符并导入数据到Hive表。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

       1、 从hive中导出数据至本地目录
              insert overwrite local directory '/export/tmp' select * from test1 where create_time = '2013-11-25'; 
             列数据之间默认以^A隔开。
        2、将本地数据上传另一个集群的hdfs
             /usr/local/hadoop-2.2.0/bin/hdfs  dfs -put  /export/tmp   hdfs://host:port/tmp    
        3、将hdfs中的数据文件导入hive表中
             hive -e "load data inpath '/tmp' into table test1;"
             但某些表创建时,设置的以 '\t' 分割数据,在读取不到 '\t' 时,会将整行数据都导入第一列。
           
         如果是hive-0.11.0版本,可以这样导出:
                hive> insert overwrite local directory '/export/tmp'
                hive> row format delimited
                hive> fields terminated by '\t'
                hive> select * from test1 where create_time = '2013-11-25';

         如果是低版本的hive,只好将导出的数据文件中的^A,替换为'\t':
               sed -i 's/^A/\t/g' filename
         同时需要将隐藏的.filename.crc校验文件删除掉,不然在上传的过程中,Hadoop将通过FSInputChecker判断需要上传的文件是否存在进行校验的crc文件,即.filename.crc,如果存在crc文件,将会对其内容一致性进行校验,如果校验 失败,会报fs.FSInputChecker: Found checksum error,停止上传该文件,最终导致整个MR任务无法执行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值