LinuxRAID磁盘阵列及RAID配置

Linux RAID配置与磁盘阵列详解
本文详细介绍了Linux下的RAID磁盘阵列,包括RAID级别的特性(如RAID 0、1、5、6和10),阵列卡的接口类型和缓存作用,以及如何配置RAID5和RAID10。还涵盖了RAID阵列的管理和设备恢复,使用mdadm命令进行操作。

一.RAID磁盘阵列介绍

  • 中文简称为独立冗余磁盘阵列

  • 把多块独立的物理硬盘按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数控备份技术

  • 组成磁盘阵列的不同方式成为RAID级别

  • 常用的RAID级别

    • RAID 0

      查看源图像

      RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余
      RAID0只是单纯地提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据
      RAID O不能应用于数据安全性要求高的场合

    • RAID 1

      [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lmAAbvEf-1631627798219)(https://www.booleanworld.com/wp-content/uploads/2018/03/raid-1.png)]

      通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据 通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据
      当原始数据繁忙,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能

    • RAID 5

      [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-n2302L3s-1631627798221)(https://ttrdatarecovery.com/wp-content/uploads/2020/07/RAID-5-and-its-uses-What-is-RAID-5-TTR-Data-Recovery.jpg)]

      N(N>=3)块盘组成阵列,一份数据产生N-1个条带,同时还有1份校验数据,共N份数据在N块盘上循环均衡存储

      N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高

      (N-1)/N磁盘利用率、可靠性高,允许坏1块盘,不影响所有数据

    • RAID 6

      查看源图像

      N(N>=4)块盘组成阵列,(N-2)/N磁盘利用率
      与RAID 5相比,RAID 6增加了第二个独立的奇偶校验信息块

      两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用
      相对于RAID 5有更大的“写损失”,因此写性能较差

    • RAID 1+0

在这里插入图片描述

N(偶数,N>=4)块盘两两镜像后,再组合成一个RAID 0
N/2磁盘利用率
N/2块盘同时写入,N块盘同时读取
性能高,可靠性高

  • 各RAID对比
RAID级别磁盘数量磁盘利用率是否有校验保护能力写性能
RAID 0N(可以为1)N单个硬盘的N倍
RAID 1N(偶数)N/2允许一个设备故障需写两对存储设备,互为准备
RAID5N>3(N-1)/N允许一个设备故障需写计算校验
RAID 6N>4(N-2)/N允许两个设备故障需双重写计算校验
RAID1+0N>=4(偶数)N/2允许各基组中各坏一个N/2块盘同时写入

二.阵列卡介绍

1.介绍

  • 阵列卡是用来实现RAID功能的板卡,通常是由I/O处理器、硬盘控制器、硬盘连接器和缓存等一系列组件构成的

  • 不同的RAID卡支持的RAID功能不同: 例如支持RAID0、RAID1、 RAID5、 RAID10等

2.阵列卡的接口类型

  • IDE接口(并行接口,价格低廉,兼容性强)
  • SCSI接口(串行接口,是小型计算机系统接口,广泛应用于小型机上的高速数据传输技术,支持热拔插,CPU占用率低,但是价格高)
  • SATA接口(串行接口)
  • SAS接口(新一代scsi接口,向下兼容SATA)

三.阵列卡的缓存

  • 缓存(Cache)是RAID卡与外部总线交换数据的场所,RAID卡先将数据传送到缓存,再由缓存和外边数据总线交换数据。
  • 缓存的大小与速度是直接关系到RAID卡的实际传输速度的重要因素,大缓存可以提高命中率
  • 不同的RAID卡出厂时配备的内存容量不同,一般为几兆到数百兆容量不等。

四.配置RAID

1.配置RAID5

  1. 查询mdadm软件包是否存在,不存在就进行安装,使用fdisk根据 ,划分分区,设备ID标记为“ fd ”。

    rpm -q mdadm                                #查询mdadm安装包是否存在
    yum install -y mdadm                        #安装mdadm
     
    fdisk /dev/sdb                              #划分分区
    fdisk /dev/sdc
    fdisk /dev/sdd
    fdisk /dev/sde
    
  2. 创建RAID设备

    [root@localhost ~]# mdadm -C -v /dev/md5  -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1
    mdadm: layout defaults to left-symmetric
    mdadm: layout defaults to left-symmetric
    mdadm: chunk size defaults to 512K
    mdadm: size set to 20954112K
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md5 started.
        
    注:-C:表示新建;
    -v:显示创建过程中的详细信息。
    /dev/md5: 创建RAID5的名称。
    -ayes:--auto,表示如果有什么设备文件没有存在的话就自动创建,可省略。
    -l: 指定RAID 的级别,l5表示创建RAID5。.
    -n:指定使用几块硬盘创建RAID, n3表示使用3块硬盘创建RAID。
    /dev/sd [bcd]1: 指定使用这3块磁盘分区去创建RAID。
    -x:指定使用几块硬盘做RAID的热备用盘,x1表示保留1块空闲的硬盘作备用
    /dev/sde1: 指定用作于备用的磁盘
    
    
  3. 查看创建是否成功

    方法一:cat /proc/mdstat   #还能查看创建RAID的进度
    方法二:mdadm -D /dev/md0
    方法三:watch -n 10 ' cat /proc/mdstat  #用watch命令来每隔-一段时间刷新/proc/mdstat的输出
    
  4. 创建并挂载文件系统

    [root@localhost ~]# mkfs -t xfs /dev/md5              #格式化
    meta-data=/dev/md5               isize=512    agcount=16, agsize=654720 blks
             =                       sectsz=512   attr=2, projid32bit=1
             =                       crc=1        finobt=0, sparse=0
    data     =                       bsize=4096   blocks=10475520, imaxpct=25
             =                       sunit=128    swidth=256 blks
    naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
    log      =internal log           bsize=4096   blocks=5120, version=2
             =                       sectsz=512   sunit=8 blks, lazy-count=1
    realtime =none                   extsz=4096   blocks=0, rtextents=0
    [root@localhost ~]# mount /dev/md5 /2                #挂载查看挂载
    [root@localhost ~]# df -Th
    文件系统       类型      容量  已用  可用 已用% 挂载点
    /dev/sda3      xfs        33G  3.7G   30G   12% /
    devtmpfs       devtmpfs  898M     0  898M    0% /dev
    tmpfs          tmpfs     912M     0  912M    0% /dev/shm
    tmpfs          tmpfs     912M  9.1M  903M    1% /run
    tmpfs          tmpfs     912M     0  912M    0% /sys/fs/cgroup
    /dev/sda1      xfs       2.0G  174M  1.9G    9% /boot
    tmpfs          tmpfs     183M   48K  183M    1% /run/user/1000
    tmpfs          tmpfs     183M     0  183M    0% /run/user/0
    /dev/sr0       iso9660   4.3G  4.3G     0  100% /run/media/ly/CentOS 7 x86_64
    /dev/md5       xfs        40G   33M   40G    1% /2
    [root@localhost ~]# mdadm -D /dev/md5                  #查看raid磁盘详细信息
     
    
  5. 模拟故障并恢复

    mdadm /dev/md5 -f /dev/sdb1   #模拟/dev/sdb1故障
    mdadm -D /dev/md5   #查看发现sde1已顶替sdb1
    

2.创建RAID1 0

  1. 查询mdadm软件包是否存在,不存在就进行安装,使用fdisk根据 ,划分分区,设备ID标记为“ fd ”。

    rpm -q mdadm                                #查询mdadm安装包是否存在
    yum install -y mdadm                        #安装mdadm
     
    fdisk /dev/sdb                              #划分分区
    fdisk /dev/sdc
    fdisk /dev/sdd
    fdisk /dev/sde
    
  2. 创建RAID设备

    [root@localhost ~]# mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1    #创建raid1
    mdadm: Note: this array has metadata at the start and
        may not be suitable as a boot device.  If you plan to
        store '/boot' on this device please ensure that
        your boot-loader understands md/v1.x metadata, or use
        --metadata=0.90
    mdadm: size set to 20954112K
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    [root@localhost ~]# mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1   #创建raid1
     
    [root@localhost ~]# mdadm -Cv /dev/md10 -l0 -n2 /dev/md[01]   #2个raid1,做raid0
    mdadm: chunk size defaults to 512K
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md10 started.
     
    #raid 10 就是把两个raid 1 再做raid 0 ,如果先做raid 0 效果不一样,有可能丢失数据
     
     
    
  3. 创建并挂载文件系统

    [root@localhost ~]# mkfs -t xfs /dev/md10            #这边只要格式化md10即可
     
    [root@localhost ~]# mkdir /1
    [root@localhost ~]# mount /dev/md10 /1               #挂载和查询挂载
    [root@localhost ~]# df -Th
     
    [root@localhost ~]# mdadm -D /dev/md10               #查看磁盘信息
     
    
  4. 模拟故障

    [root@localhost ~]# mdadm /dev/md0 -f /dev/sdb1  #这边我们只能在md1两个组里实行故障
    mdadm: set /dev/sdb1 faulty in /dev/md0
    [root@localhost ~]# mdadm /dev/md0 -r /dev/sdb1
     
    [root@localhost ~]# mdadm /dev/md0 -a /dev/sdb1
     
    [root@localhost ~]# mdadm -D /dev/md10           #这边我们容量是md1的两倍
    

五.RAID阵列的管理及设备恢复

1.步骤

  • 扫描或查看磁盘阵列信息

  • 启动/停止RAID阵列

  • 设备恢复操作 模拟阵列设备故障 更换故障设备,并恢复数据

2. mdadm 命令

  • 常用选项:

    • -r:移除设备

    • -a:添加设备

    • -S:停止RAID

    • -A:启动RAID

    • -f :模拟故障

mdadm /dev/md0 -f /dev/sdc1    ## 将指定磁盘设为故障
 
mdadm /dev/md0 -r /dev/sdc1    ##  移除指定磁盘
 
mdadm /dev/md0 -a /dev/sdc1    ##  添加指定磁盘
  • 创建/etc/mdadm.conf 配置文件,方便管理软RAID的配置

[root@localhost ~]# echo ' DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1 /dev/sde1' > 
/etc/mdadm.conf                                              #把资源写入配置文件
[root@localhost ~]# mdadm --detail --scan >> /etc/mdadm.conf #扫描更新
[root@localhost ~]# umount /dev/md5                          #取消挂载
[root@localhost ~]# mdadm -S /dev/md5                        #停止RAID
mdadm: stopped /dev/md5                 
[root@localhost ~]# mdadm -As /dev/md5                       #开启RAID
mdadm: /dev/md5 has been started with 3 drives and 1 spare.


[root@localhost ~]# umount /dev/md5                          #取消挂载
[root@localhost ~]# mdadm -S /dev/md5                        #停止RAID
mdadm: stopped /dev/md5                 
[root@localhost ~]# mdadm -As /dev/md5                       #开启RAID
mdadm: /dev/md5 has been started with 3 drives and 1 spare.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值