【Hbase迁移问题】hdfs get数据量过大导致kerberos票据失效问题记录

本文分享了在无法直接通信的两个HBase集群间进行数据迁移的实际案例。介绍了如何通过hdfsget命令结合定时任务解决kerberos认证过期的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景

老的集群A机器设备太老了,hbase读写性能差,需要迁移到新集群B。

问题

由于集群A和集群B不通,不能使用hdfs distcp、hbase快照、Replication同步、hbase导入导出等方式去做迁移

get方式

基于以上问题只能使用hdfs get的方式将数据get下来到机器上,再将get下来的数据put到新集群B,然后再通过元数据修复,上线region来解决。

kerberos报错

由于两个集群都是认证集群,我写了个脚本get后再put数据到新集群,但是发现有个5个多T的hbase表,get到3.6T的时候报错了。发现是kerberos认证信息过期,认证报错。

由于集群是生产环境,机器不能随便更改服务端配置,不能修改kerberos。所以只能想别的办法。

解决

1、不再使用shell脚本方式get再put。
2、直接nohup hdfs get xxxxx xxx & >./xxx.log
3、添加crontab定时任务,由于认证是24小时过期,直接添加了5小时执行一次认证。

目前为止get数据正常。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值