hadoop服务器磁盘损坏的处理办法

本文详细介绍了Hadoop设备经常遇到的磁盘只读或损坏问题及其对datanode和tasktracker的影响,并提供了设置系统容忍损坏磁盘数的方法以确保datanode正常运行。对于tasktracker的问题处理,文章提出了创建新目录并挂载损坏磁盘作为退而求其次的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hadoop设备经常会发生磁盘只读或者损坏的情况,出现这样的问题,datanode和tasktracker会无法启动。解决办法如下:

 

 

让datanode正常运行,需要设置系统可以容忍的损坏磁盘数,默认为0:

 

 

  <property>
    <name>dfs.datanode.failed.volumes.tolerated</name>
    <value>3</value>
  </property>

 

 

让TT(tasktracker)正常运行,这个我没有找到更好的办法, TT会写文件到"mapred.local.dir"中目录,hadoop没有提供相关的解决办法,退一步的处理办法mkdir,然后把损坏的目录盘挂到创建的DIR下。

 

-- heipark

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值