生产调优5 HDFS-存储优化

HDFS-存储优化

环境准备

演示纠删码和异构存储需要一共 5 台虚拟机

首先我们需要把之前的演示的hadoop105从黑名单中放出来,然后根据hadoop105克隆一台hadoop106。
这里使用我们之前使用的5台虚拟机,所以有些地方需要修改

1 修改IP和主机名

网卡地址: /etc/sysconfig/network-scripts/ifcfg-ens33
修改主机名地址: /etc/hostname

[ranan@hadoop105 ~]$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens33
IPADDR=192.168.10.106
[ranan@hadoop105 ~]$ sudo vim /etc/hostname
hadoop106

2 删除data/ logs/

这里我们依次删除之前的 data/ logs/ ,清空集群数据

[ranan@hadoop106 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop105 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop104 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop103 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop102 hadoop-3.1.3]$ rm -rf data/ logs/

3 修改脚本

在主节点hadoop102 修改脚本增加节点数 为了后续的处理更方便

  • jpsall 查看进程 增加节点hadoop105 hadoop106
  • myhadoop.sh 启动/关闭集群 不需要修改,hdfs/historyserver在hadoop102上,yarn在hadoop103上
  • xsync 分发文件 增加节点hadoop105 hadoop106

4 修改hadoop相关配置

修改白名单 黑名单

[ranan@hadoop102 hadoop]$ vim blacklist 
[ranan@hadoop102 hadoop]$ vim whitelist
hadoop102
hadoop103
hadoop104
hadoop105
hadoop106

关闭多目录配置

[ranan@hadoop102 hadoop]$ vim hdfs-site.xml 

image

配置workers

[ranan@hadoop102 bin]$ vim /opt/module/hadoop-3.1.3/etc/hadoop/workers
hadoop102
hadoop103
hadoop104
hadoop105
hadoop106

分发

[ranan@hadoop102 etc]$ xsync hadoop/

发现不能免密访问hadoop106,配置所有节点免密连接

[ranan@hadoop102 .ssh]$ ssh-copy-id hadoop106
[ranan@hadoop103 .ssh]$ ssh-copy-id hadoop106

5 格式化namenode

[ranan@hadoop106 hadoop-3.1.3]$ hdfs namenode -format

6 重启集群

[ranan@hadoop102 etc]$ myhadoop.sh start
[ranan@hadoop102 etc]$ jpsall

纠删码

纠删码原理

背景
HDFS默认情况下,一个文件有三个副本,这样提高了数据的可靠性,但带来2倍的冗余开销。一个300M的文件需要900M的存储空间。
Hadoop3.x 引入了纠删码,采用计算的方式,可以节省越50%左右的存储空间。

案例
这里以其中一个算法为例
一个文件300M 拆分成3个数据单元(100m/个)、2个校验单位(100m/个),那么只需要500M的内存
任意两台服务器挂了,可以通过计算的方式,找回丢失的数据

节约了内存但是占用了计算资源

image

纠删码操作相关的命令

[ranan@hadoop102 ~]$ hdfs ec
Usage: bin/hdfs ec [COMMAND]
          [-listPolicies] # 查看所有的策略(算法)
          [-addPolicies -policyFile <file>] # 添加策略
          [-getPolicy -path <path>] # 获取某一个路径的纠删码策略
          [-removePolicy -policy <policy>] # 删除策略
          [-setPolicy -path <path> [-policy <policy>] [-replicate]] # 对某个路径设置纠删码策略
          [-unsetPolicy -path <path>] 
          [-listCodecs]
          [-enablePolicy -policy <policy>] # 开启某个纠删码策略
          [-disablePolicy -policy <policy>] # 关闭某个纠删码策略
          [-help <command-name>]

在集群启动下,查看所有的策略(算法)

[ranan@hadoop102 ~]$ hdfs ec -listPolicies
Erasure Coding Policies:
ErasureCodingPolicy=[Name=RS-10-4-1024k, Schema=[ECSchema=[Codec=rs, numDataUnits=10, numParityUnits=4]], CellSize=1048576, Id=5], State=DISABLED
ErasureCodingPolicy=[Name=RS-3-2-1024k, Schema=[ECSchema=[Codec=rs, numDataUnits=3, numParityUnits=2]], CellSize=1048576, Id=2], State=DISABLED
ErasureCodingPolicy=[Name=RS-6-3-1024k, Schema=[ECSchema=[Codec=rs, numDataUnits=6, numParityUnits=3]], CellSize=1048576, Id=1], State=ENABLED
ErasureCodingPolicy=[Name=RS-LEGACY-6-3-1024k, Schema=[ECSchema=[Codec=rs-legacy, numDataUnits=6, numParityUnits=3]], CellSize=1048576, Id=3], State=DISABLED
ErasureCodingPolicy=[Name=XOR-2-1-1024k, Schema=[ECSchema=[Codec=xor, numDataUnits=2, numParityUnits=1]], CellSize=1048576, Id=4], State=DISABLED

纠删码策略解释

RS-3-2-1024k
1.使用RS编码
2.每3个数据单元,生产2个校验单元,共5个单元,这5个单元中,只要有任意3个单元存在,就可以得到原始数据。
3.每个单元的大小是1024k = 1024 * 1024Byte
假设2M的数据,1M为一个单元,那么就有2个数据单元,校验单元有2个
假设1KB的数据,小于1M,那么就有1个数据单元,校验单元还是有2个

RS-10-4-1024k
1.使用RS编码
2.每10个数据单元,生产4个校验单元,共14个单元,这14个单元中,只要有任意10个单元存在,就可以得到原始数据。
3.每个单元的大小是1024k = 1024 * 1024Byte

RS-6-3-1024k
1.使用RS编码
2.每6个数据单元,生产3个校验单元,共9个单元,这9个单元中,只要有任意6个单元存在,就可以得到原始数据。
3.每个单元的大小是1024k = 1024 * 1024Byte

RS-LEGACY-6-3-1024k
策略与上面一样,只是编码的算法用的是rs-legacy

XOR-2-1-1024k
1.使用XOR编码,速度比RS编码快
2.每2个数据单元,生产1个校验单元,共3个单元,这3个单元中,只要有任意2个单元存在,就可以得到原始数据。
3.每个单元的大小是1024k = 1024 * 1024Byte

纠删码案例

纠删码策略是给具体一个路径设置。所有此路径下存储的文件,都会执行此策略。
默认只开启对 RS-6-3-1024k 策略的支持,如要使用别的策略需要提前启用。

image

需求

将/input 目录设置为 RS-3-2-1024k 策略

实现

1.默认开启RS-6-3-1024K策略,所以需要手动开启对RS-3-2-1024k策略。策略需要先开启再使用。

[ranan@hadoop102 hadoop-3.1.3]$ hdfs ec -enablePolicy -policy RS-3-2-1024k
Erasure coding policy RS-3-2-1024k is enabled

2.在HDFS创建目录,并设置RS-3-2-1024k策略

[ranan@hadoop102 hadoop-3.1.3]$ hdfs dfs -mkdir /input
[ranan@hadoop102 hadoop-3.1.3]$  hdfs ec -setPolicy -path /input -policy RS-3-2-1024k
Set RS-3-2-1024k erasure coding policy on /input

3.上传数据,观察每个节点存储的内容

需要看到效果需要大于2M,因为1M为一个单位,只有大于2M才会存储成3块。

image

5个节点上都有,3个数据单元,2个校验单元

image

hadoop 102 的数据,我的路径如下,按照之前的操作这个的data1应该是data

/opt/module/hadoop-3.1.3/data/dfs/data1/current/BP-929206076-192.168.10.102-1638883286159/current/finalized/subdir0/subdir0

image

hadoop 103 的数据

image

其他节点同样操作
hadoop102 数据单元
hadoop103 校验单元
hadoop104 校验单元
hadoop105 数据单元
hadoop106 数据单元

4.破坏数据完整性,恢复数据

删除任意两个节点的数据,我删除hadoop105和hadoop106

[ranan@hadoop106 subdir0]$ rm -rf blk_-9223372036854775791 blk_-9223372036854775791_1001.meta
[ranan@hadoop105 subdir0]$ rm -rf blk_-9223372036854775791 blk_-9223372036854775791_1001.meta

下载的数据仍然是完整的数据,下载之后删除的节点数据会自动恢复。如果删除了三个节点,那么会下载失败。

image

异构存储(冷热数据分离)

经常使用的数据是热数据,不经常使用的数据是冷数据

异构存储主要解决的问题:不同的数据,存储在不同类型的硬盘中,达到最佳性能。

需求场景
假设有四个硬盘,一堆视频分为:正在看的、经常看的、不经常看的、永久保存(不看)
正在看的存储在内存镜像里,经常看的存储在固态里,不经常看的存储在机械里,永久保存的存储在破旧
image

存储类型和存储策略

存储类型

RAM_DISK: 内存镜像文件系统,速度最快
SSD: SSD固态硬盘
DISK: 普通磁盘, 在HDFS中, 如果没有主动声明数据目录存储类型默认都是DISK
ARCHIVE:档案文件 没有特指哪种存储介质, 主要的指的是计算能力比较弱而存储密度比较高的存储介质, 用来解决数据量的容量扩增的问题, 一般用于归档

存储策略

类似纠删码,对路径设置策略!

image

异构存储的Shell操作

查看当前有哪些存储策略可以用

[ranan@hadoop106 subdir0]$ hdfs storagepolicies -listPolicies
Block Storage Policies:
        BlockStoragePolicy{PROVIDED:1, storageTypes=[PROVIDED, DISK], creationFallbacks=[PROVIDED, DISK], replicationFallbacks=[PROVIDED, DISK]}
        BlockStoragePolicy{COLD:2, storageTypes=[ARCHIVE], creationFallbacks=[], replicationFallbacks=[]}
        BlockStoragePolicy{WARM:5, storageTypes=[DISK, ARCHIVE], creationFallbacks=[DISK, ARCHIVE], replicationFallbacks=[DISK, ARCHIVE]}
        BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}
        BlockStoragePolicy{ONE_SSD:10, storageTypes=[SSD, DISK], creationFallbacks=[SSD, DISK], replicationFallbacks=[SSD, DISK]}
        BlockStoragePolicy{ALL_SSD:12, storageTypes=[SSD], creationFallbacks=[DISK], replicationFallbacks=[DISK]}
        BlockStoragePolicy{LAZY_PERSIST:15, storageTypes=[RAM_DISK, DISK], creationFallbacks=[DISK], replicationFallbacks=[DISK]}

为指定路径(数据存储目录) 设置指定的存储策略

hdfs storagepolicies -setStoragePolicy -path xxx -policy xxx

获取指定路径(数据存储目录或文件)的存储策略

hdfs storagepolicies -getStoragePolicy -path xxx

取消存储策略;执行改命令之后该目录或者文件,以其上级的目录为准,如果是根目录,那么就是 HOT

hdfs storagepolicies -unsetStoragePolicy -path xxx

查看文件块的分布

bin/hdfs fsck xxx -files -blocks -locations

查看集群节点

hadoop dfsadmin -report

测试环境准备

测试环境描述

服务器:5台
集群配置:副本数为 2,创建好带有存储类型的目录(提前创建)
集群规划:

image

配置文件信息

1.hadoop102节点的hdfs-site.xml添加如下信息

这里显示把存储策略打开,其实默认是打开的
之前配置过的datanode记得删掉

<property><!--副本数-->
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.storage.policy.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[RAM_DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/ram_disk</value>
</property>

image

2.hadoop103节点的hdfs-site.xml添加如下信息

<property>
<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
<name>dfs.storage.policy.enabled</name>
	<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
	<value>[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk</value>
</property>

3.hadoop104节点的hdfs-site.xml添加如下信息

<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.storage.policy.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>[RAM_DISK]file:///opt/module/hdfsdata/ram_disk,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk</value>
</property>

4.hadoop105节点的hdfs-site.xml添加如下信息

<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.storage.policy.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive</value>
</property>

5.hadoop106节点的hdfs-site.xml添加如下信息

<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.storage.policy.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive</value>
</property>
数据准备

1.格式化集群

  • 关闭集群
  • 删除data、log
  • 格式化
  • 重启集群
# 这里集群是关闭了的,就不用再关闭集群了
[ranan@hadoop102 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop103 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop104 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop105 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop106 hadoop-3.1.3]$ rm -rf data/ logs/
[ranan@hadoop102 hadoop-3.1.3]$ hdfs namenode -format
[ranan@hadoop102 hadoop-3.1.3]$ myhadoop.sh start

2.在 HDFS 上创建文件目录

[ranan@hadoop102 hadoop-3.1.3]$ touch NOTICE.txt
[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /hdfsdata

3.将文件资料上传

[ranan@hadoop102 hadoop-3.1.3]$ hadoop fs -put NOTICE.txt /hdfsdata

HOT(default) 存储策略案例

image

1.在开始未设置存储策略的情况下,我们获取该目录的存储策略

[ranan@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -getStoragePolicy -path /hdfsdata
The storage policy of /hdfsdata is unspecified

2.我们查看上传的文件块分布

这个命令看不出来,那就查看文件块分布来进行匹配

[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations
/hdfsdata/NOTICE.txt 21867 bytes, replicated: replication=2, 1 block(s):  OK
0. BP-174442566-192.168.10.102-1639397853441:blk_1073741829_1005 len=21867 Live_repl=2  [DatanodeInfoWithStorage[192.168.10.103:9866,DS-f78f88fa-97b9-440b-bc53-0c8965b58885,DISK], DatanodeInfoWithStorage[192.168.10.104:9866,DS-eb12319b-d08c-49b7-a936-b01627243a74,DISK]]
![image](https://img2020.cnblogs.com/blog/1345685/202112/1345685-20211213204740132-779348446.png)

image

WARN 存储策略测试

image

1.设置WARN存储策略

[ranan@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy WARM

2.再次查看文件块分布,我们可以看到文件块依然放在原处。

[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

还是在disk,原因不会自动把文件从一个盘移入另一个盘

image

3.我们需要让他 HDFS 按照存储策略自行移动文件块

MOVER定期扫描HDFS文件,检查文件的存放是否符合它自身的存储策略。如果数据块不符合自己的策略,它会把数据移动到该去的地方。
可以手动移动

[ranan@hadoop102 hadoop-3.1.3]$  hdfs mover /hdfsdata

4.移动完之后再次查看文件块分布

[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

image

COLD 存储策略测试

image

注意:当我们将目录设置为 COLD 并且我们未配置 ARCHIVE 存储目录的情况下,不可以向该目录直接上传文件,会报出异常。

# 设置策略
[ranan@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy COLD
Set storage policy COLD on /hdfsdata
# 移动
[ranan@hadoop102 hadoop-3.1.3]$  hdfs mover /hdfsdata
# 查看文件块分布
[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

image

One_SSD 存储策略测试

image

[ranan@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy One_SSD 

# 移动
[ranan@hadoop102 hadoop-3.1.3]$  hdfs mover /hdfsdata
# 查看文件块分布
[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

image

All_SSD 存储策略测试

image

[ranan@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy All_SSD 

# 移动
[ranan@hadoop102 hadoop-3.1.3]$  hdfs mover /hdfsdata
# 查看文件块分布
[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations
错误1 Some blocks can’t be moved. Exiting…

image

暂时不知道什么原因,我发现下面的过程中怎么没有创建192.168.10.102节点,刚好102又配置了SSD,是不是因为要两个副本又只有hadoop103一个是SSD所以移动失败

2021-12-13 21:46:39,041 INFO net.NetworkTopology: Adding a new node: /default-rack/192.168.10.106:9866
2021-12-13 21:46:39,041 INFO net.NetworkTopology: Adding a new node: /default-rack/192.168.10.105:9866
2021-12-13 21:46:39,041 INFO net.NetworkTopology: Adding a new node: /default-rack/192.168.10.104:9866
2021-12-13 21:46:39,041 INFO net.NetworkTopology: Adding a new node: /default-rack/192.168.10.103:9866

看102的配置,果然路径出问题了

image

修改之后又格式化集群、重新启动集群、新建目录、与改变策略之后,执行成功了

注意格式化的不仅删除data、log 还要删除我们新建的hdfsdata,这个路径没有在data下面所以需要手动删除,不然会出现版本对不上的事情。

lazy_persist 存储策略测试(不常用)

image

![image](https://img2020.cnblogs.com/blog/1345685/202112/1345685-20211214121637372-1639891647.png)
p-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy lazy_persist 

# 移动
[ranan@hadoop102 hadoop-3.1.3]$  hdfs mover /hdfsdata
# 查看文件块分布
[ranan@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

发现所有的文件块都是存储在 DISK,按照理论一个副本存储在 RAM_DISK,其他副本存储在 DISK 中,

image

hdfs对在内存数据存储的限制

原因是因为存储到内存镜像中有限制,需要配置允许在内存中存储多少数据dfs.datanode.max.locked.memory默认是0,
通常按块大小来存储数据,那么加载到内存至少是一块,所以配置的值需要大于dfs.block.size
image

linux对在内存存储数据的限制

但是由于虚拟机的“max locked memory”为 64KB,所以,如果参数配置过大,还会报出错误

ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in
secureMain
java.lang.RuntimeException: Cannot start datanode because the configured
max locked memory size (dfs.datanode.max.locked.memory) of 209715200
bytes is more than the datanode's available RLIMIT_MEMLOCK ulimit of
65536 bytes.

使用ulimit命令查看

[ranan@hadoop102 hadoop-3.1.3]$ ulimit -a

image

如果要看见效果,由于linux对内存的限制,可以先修改max locked memory 然后修改 dfs.datanode.max.locked.memory

文件块存储在DISK上的原因

那么出现存储策略为 LAZY_PERSIST 时,文件块副本都存储在 DISK 上的原因有如下两点:
1.当客户端所在的 DataNode 节点没有 RAM_DISK 时,则会写入客户端所在的DataNode 节点的 DISK 磁盘,其余副本会写入其他节点的 DISK 磁盘。
2.当客户端所在的 DataNode 有 RAM_DISK,但“dfs.datanode.max.locked.memory”参数值未设置或者设置过小(小于“ dfs.block.size”参数值)时,则会写入客户端所在的DataNode 节点的 DISK 磁盘,其余副本会写入其他节点的 DISK 磁盘

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值