hadoop的优势就是多磁盘,多存储,分布式计算,所以不可避免的磁盘空间会不足的时候,这个时候就需要为datanode节点添加磁盘来提高存储空间。
下面说下为集群添加磁盘的步骤:
1.对新加入的硬盘分区
使用fdisk /dev/sda 命令 然后根据提示做分区,最多可以有4个主分区和一个扩展分区
2.对分区进行格式化
使用mkfs -t ext4 /dev/sda1 指定格式化类型进行格式化
3.挂载分区
使用 mount /dev/sda1 /data1 把分区挂载在/data1目录下
4.查找分区的UUID
使用命令 blkid 找到分区的UUID,这个UUID是分区唯一的,确保不会因为开机挂载的不同而改变
5.修改/etc/fstab
使用命令 vi /etc/fstab 来添加分区信息,可以开机自动挂载分区,例如:
UUID=234323-454323-23GDFSG /home ext4 defaults 1 2 6.修改配置文件 hdfs-site.xml 中修改 dfs.data.dir 中添加新添加的挂载点,用逗号隔开 大功告成。

当Hadoop集群的磁盘空间不足时,需要为datanode节点添加硬盘以提升存储容量。步骤包括:对新硬盘分区,使用fdisk创建主分区或扩展分区;对分区进行格式化,如使用mkfs.ext4;挂载分区到指定目录,如/data1;查找分区UUID以确保开机自动挂载;最后,在/etc/fstab中添加分区信息。
最低0.47元/天 解锁文章
2191

被折叠的 条评论
为什么被折叠?



