hadoop集群重启后数据丢失处理

本文探讨了Hadoop集群重启后出现的安全模式及数据丢失问题。通过检查命令hadoop fsck/可验证数据块完整性。当集群重启后处于安全模式且存在大量损坏块时,可能是由于节点启动失败或配置文件修改不当所致。文中分享了一个具体案例,即所有节点的数据目录被错误地统一到一个默认目录,导致部分数据未被集群正确读取。

        一般hadoop集群重启后会立即处于安全模式,主节点检查各个从节点数据正常后会自动解除安全模式,是否丢失数据可使用命令 “hadoop fsck 路径"来进行查看,例如:

            hadoop fsck /         查看根目录下所有文件的健康状况,是否有损坏的数据块

        如果重启前你的集群是正常的,没有丢失数据,而重启结束之后检查发现该目录下有大量损坏的块,这种情况下一般都是某个节点没有启动成功,亦或者是cloudera manager搭建的hadoop集群配置文档已修改,博主遇到过以下情况:

        hadoop重启完毕之后一直处于安全模式,检查后所有节点均正常启动,使用hadoop fskc / 命令发现有大量损坏的块,损坏块占集群中块总量的30%,对集群进行检查后发现,所有节点挂载的数据目录均被设置成默认目录,例如:

        主机A有多快磁盘,被挂载在多个目录下/data1/dfs/dn,/data2/dfs/dn/data3/dfs/dn,该三个磁盘被用来保存集群数据

        主机B只有一块磁盘,被挂载在/data1/dfs/dn

        集群重启后所有节点的数据目录均被重置为/data1/dfs/dn,该情况会导致主机A/data2/dfs/dn/,/data3/dfs/dn/目录数据未被集群读取,就会产生数据丢失,重新修改配置文件并重启集群后数据正常读取!

        所以,各位大数据工程师在重启集群的时候尽量慎重,谨防错误操作导致数据丢失!

 

        纯手工敲打,谢谢您的点赞评论!

 

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值