Linux高级文件系统管理之RAID

10.3 RAID(磁盘阵列)

LVM最大的优势在于可以在不卸载分区和不损坏数据的情况下进行分区容量的调整,但是万一硬盘损坏了,那么数据定会丢失。我们现在要说的 RAID (磁盘阵列) 的优势在于硬盘读写性能更好,而且具有一定的数据冗余功能。

10.3.1 RAID简介

RAID (Redundant Arrays of Inexpensive Disks,磁盘阵列),翻译过来就是廉价的、具有冗余功能的磁盘阵列。其原理是通过软件或硬件将多块较小的硬盘或分区组合成一个容量较大的磁盘组。这个较大的磁盘组读写性能更好,更重要的是具有数据冗余功能。那什么是数据冗余呢?从字面上理解,冗余就是多余的、重复的。在磁盘阵列中,冗余是指由多块硬盘组成一个磁盘组,在这个磁盘组中,数据存储在多块硬盘的不同地方,这样即使某块硬盘出现问题,数据也不会丢失,也就是磁盘数据具有了保护功能。RAID的组成可以是几块硬盘,也可以是几个分区,而硬盘更加容易理解,所以我们在讲解原理时使用硬盘举例,但是大家要知道不同的分区也可以组成RAID。

常见的RAID有这样几种级别:

  1. RAID 0

RAID 0也叫Stripe或Striping(带区卷),是RAID级别中存储性能最好的一个。RAID 0最好由相同容量的两块或两块以上的硬盘组成。如果组成RAID 0的两块硬盘大小不一置,则会影响RAID 0的性能。在这种模式下会先把硬盘分隔出大小相等的区块,当有数据需要写入硬盘时,会把数据也切割成相同大小的区块,然后分别写入各块硬盘。这样就相当于把一个文件分成几个部分同时向不同的硬盘中写入,数据的读/写速度当然就会非常快。从理论上讲,由几块硬盘组成RAID 0,比如由2块硬盘组成RAID 0,数据的写入速度就是同样的数据向一块硬盘中写入速度的2倍。我们画一张RAID 0的示意图,如图10-12所示。

图10-12 RAID0

解释一下这张示意图。我们准备了2块硬盘组成了RAID 0,每块硬盘都划分了相等的区块。当有数据要写入RAID 0时,首先把数据按照区块大小进行分割,然后再把数据依次写入不同的硬盘。每块硬盘负责的数据写入量都是整体数据的1/2,当然写入时间也只有原始时间的1/2。所以,从理论上讲,由几块硬盘组成RAID 0,数据的写入速度就是数据只写入一块硬盘速度的几倍。

RAID 0的优点如下:

  • 通过把多块硬盘合并成一块大的逻辑硬盘,实现了数据跨硬盘存储;
  • 通过把数据分割成等大小的区块,分别存入不同的硬盘,加快了数据的读/写速度。数据的读/写性能是几种RAID中最好的;
  • 多块硬盘合并成RAID 0,几块小硬盘组成了更大容量的硬盘,而且没有容量损失。RAID 0的总容量就是几块硬盘的容量之和;

RAID 0也有一个明显的缺点,那就是没有数据冗余功能,RAID 0中的任何一块硬盘损坏,RAID 0中所有的数据都将丢失。也就是说,由几块硬盘组成RAID 0,数据的损毁概率就是只写入块硬盘的几倍。

我们刚刚说了,组成RAID 0的硬盘的大小最好都是样的。那有人说我只有两块不一样大小的硬盘,难道就不能组成RAID 0吗?答案是可以的。假设我有两块硬盘,一块大小是100GB,另块大小是200GB。由这两块硬盘组成RAID 0,那么当最初的200GB数据写入时,是分别存放在两块硬盘当中的;但是当数据大于200GB之后,第一块硬盘就写满了,以后的数据就只能写入第二块硬盘中,读/写性能也就随之下降了。

一般不建议企业用户使用RIAD 0,因为数据损毁的概率更高。如果对数据的读/写性能要求非常高,但对数据安全要求不高时,RAID 0 就非常合适了。

  1. RAID 1

RAID 1也叫Mirror或Mirroring (镜像卷),由两块硬盘组成。两块硬盘的大小最好一致,否则总容量以容量小的那块硬盘为主。RAID 1就具备了数据冗余功能,因为这种模式是把同一份数据同时写入两块硬盘。比如我有两块硬盘,组成了RAID 1,当有数据写入时,相同的数据既写入硬盘1,也写入硬盘2。这样相当于给数据做了备份,所以任何一块硬盘损坏,数据都可以在另一块硬盘中找回。RAID 1的示意图如图10-13所示。

图10-13 RAID1

RAID1具有了数据冗余功能,但是硬盘的容量却减少了50%,因为两块硬盘当中保存的数据是一样的,所以两块硬盘实际上只保存了一块硬盘这么多的数据,这也是我们把RAID 1称作镜像卷的原因。

RAID1的优点如下:

  • 具备了数据冗余功能,任何一块硬盘出现故障,数据都不会丢失;
  • 数据的读取性能虽然不如RAID 0,但是比单一硬盘要好,因为数据有两份备份在不同的硬盘上,当多个进程读取同一数据时,RAID会自动分配读取进程。

RAID 1的缺点也同样明显:

  • RAID 1的容量只有两块硬盘容量的50%,因为每块硬盘中保存的数据都一样;
  • 数据写入性能较差,因为相同的数据会写入两块硬盘当中,相当于写入数据的总容量变大 了。虽然CPU的速度足够快,但是复杂数据写入的南桥芯片只有一个。
  1. RAID 10或RAID 01

我们发现,RAID 0虽然数据读/写性能非常好,但是没有数据冗余功能;而RAID 1虽然具有了数据冗余功能,但是数据写入速度实在太慢了(尤其是软RAID)。那么,我们能不能把RAID 0和RAID 1组合起来使用?当然可以,这样我们即拥有了RAID 0的读/写性能,又拥有了RAID 1的数据冗余功能。

我们先用两块硬盘组成RAID 1,在用两块硬盘组成另一个RAID 1,最后把两个RAID 1组成RAID 0,这种RAID方法我们乘坐RAID 10。那先组成RAID 0,在组成RAID 1的方法我们就称呼RAID 01,我们通过示意图来看看RAID10,如图10-14所示。

图10-14 RAID 10

我们把硬盘0和硬盘1组成了第一个RAID 1,把硬盘2和硬盘3组成了第二个RAID 1,这两个RAID 1 组成了RAID 0。因为先组成RAID 1,再组成RAID 0,所以这个RAID是RAID 10。当有数据写入时,首先写入的是RAID0 (RAID 0后组成,所以数据先写入),所以数据A1和数据A3写入了第一个RAID1,而数据A2和数据A4写入了第二个RAID 1。当数据A1和数据A3写入第一个RAID 1时,因为写入的是RAID 1,所以在硬盘0和硬盘1中各写入了一份。数据A2和数据A4也一样。

这样的组成方式,既有了RAID0的性能优点,也有了RAID 1的数据冗余优点。但是大家要注意,虽然我们有了4块硬盘,但是由于RAID 1的缺点,所以真正的容量只有4块硬盘的50%,另外的一半是用来备份的。

  1. RAID 5

RAID 5最少需要由3块硬盘组成,当然硬盘的容量也应当一致。当组成RAID 5时,同样需要把硬盘分隔成大小相同的区块。当有数据写入时,数据也被划分成等大小的区块,然后循环向RAID5中写入。不过每次循环写入数据的过程中,在其中一块硬盘中加入一个奇偶校验值(Parity),这个奇偶校验值的内容是这次循坏写入时其他硬盘数据的备份。当有一块硬盘损坏时,采用这个奇偶校验值进行数据快复。通过示意图来看看RAID5的存储过程,如图10-15所示。

图10-15 RAID 5

在这张示意图中,我们使用四块硬盘组成了RAID5。当有数据循环写入时,每次循环都会写入一个奇偶校验值(Parity),并且每次奇偶校验值都会写入不同的硬盘。这个奇偶校验值就是其他三块硬盘中的数据经过换算之后产生的。因为每次奇偶校验值都会写入不同的硬盘,所以任何一块硬盘损坏之后,都可以依赖其他三块硬盘中保存的数据恢复这块损坏的硬盘中的数据。

不过需要注意,每次数据循环写入时,都会有一块硬盘用来保存奇偶校验值,所以在RAID5中可以使用的总容量是硬盘总数减去一块的容量之和。比如,在这张示意图中,由四块硬盘组成了RAID5,但是真正可用的容量是三块硬盘的容量之和,也就是说,越多的硬盘组成RAID5,损失的容量占比越小,因为不管由多少块硬盘组成RAID5,奇偶校验值加起来只占用一块硬盘。而且还要注意,RAID5 不管是由几块硬盘组成的,只有损坏一块硬盘的情况才能恢复数据,因为奇偶校验值加起来只占用了一块硬盘,如果损坏的硬盘超过一块,那么数据就不能再恢复了。

RAID5的优点如下:

  • 因为奇偶校验值的存在,RAID5具有了数据冗余功能;
  • 硬盘容量损失比RAID1小,而且组成RAID5的硬盘数量越多,容量损失占比越小,因为奇偶校验值加起来只占用一块硬盘。
  • RAID5的数据读/写性能要比RAID 1更好,但是在数据写入性能上比RAID0差。 RAID 5的缺点如下:
  • 不管由多少块硬盘组成RAID5,只支持一块硬盘损坏之后的数据恢复;
  • RAID5的实际容量是组成RAID 5的硬盘总数减去一块的容量之和。也就是有一块硬盘用来保存奇偶校验值,但不能保存数据。

从总体上来说,RAID 5更像RAID0和RAID1的折中,性能比RAID 1好,但是不如RAID0;数据冗余比RAID0好,而且不像RAID1那样浪费了50%的硬盘容量。

  1. 软RAID和硬RAID

我们要想在服务器上实现RAID,可以采用磁盘阵列卡(RAID卡)来组成RAID,也就是硬RAID。RAID 卡上有专门的芯片负责RAID任务,因此性能要好得多,而且不占用系统性能,缺点是RAID卡比较昂贵。如果我们既不想花钱又想使用RAID,那就只能使用软RAID了。

软RAID是指通过软件实现RAID功能,没有多余的费用,但是更加耗费服务器系统性能,而且数据的写入速度也较硬RAID慢。硬RAID是通过不同厂商的RAID卡实现的,每种RAID卡的系统都不太一样,需要参考各个RAID卡厂商的说明。我们接下来要讲解的是通过Linux系统实现的软RAID。和LVM一样,软RAID可以在安装系统的同时配置,也可以在安装完成之后通过系统命令配置。

10.3.2 图形界面安装系统时配置RAID

RAID配置起来要比LVM方便,因为它不像LVM那样分了物理卷、卷组和逻辑卷3层,而且每层都需要配置。我们在图形安装界面中配置RAID1和RAID5,先来看看RAID1的配置方法。

  1. RAID 1配置

配置RAID 1时同样需要启动图形安装程序,在分区界面进行配置,如图10-16所示。

图10-16 选择源驱动器

我们已经知道,可以使用相同大小的硬盘配置RAID, 也可以使用相同大小的分区配置RAID,方法都是一样的。 我们在实验中就使用相同大小的两个分区创建RAID 1吧。在选择驱动器界面单击创建按钮,进入生成存储界面,如图10-17所示。

图10-17 生成存储

生成存储界面中,在创建软件RAID"选项组中选择RAID分区单选按钮,单击创建按钮,进入添加分区`界面,如图10-18所示。

图10-18 添加分区

我们要创建两个2GB大小的分区,用来组成RAID1。所以,在添加分区界面中,文件系统类型选择software RAID (软RAID),分区大小指定为2GB。单击确定按钮后,第一个RAID分区就建立完成了。第二个RAID分区也这样建立。两个RAID分区都建立完成后,如图10-19所示。

图10-19 RAID分区建立完成

这时在单击创建按钮,进入生成存储界面,如图10-20所示。

图10-20 生成RAID存储

这时我们发现刚刚灰色的不能选择的RAID设备单选按钮已经可以选择了,证明我们现有的RAID分区具备了组成RAID设备的条件。我们选择RAID设备单选按钮,然后单击创建按钮,就进入创建RAID设备界面,如图10-21所示。

图10-21 创建RAID设备

在这里,挂载点选择/分区,也就是说/分区是由两个等大小的分区组成的RAID1设备,文件系统类型选项ext4,RAID设备选择md0(第一个RAID设备),RAID级别选择RAID1,同时勾选组成RAID1的两个分区sda1和sda2.单击确定按钮,RAID1基于建立完成了,如图10-22所示。

图10-22 RAID1建立完成

这里需要注意,只有/分区是RAID1,其他分区还没有分配。

  1. RAID5配置

RAID5的配置和RAID1的配置一致,只不过RAID1只需要两个等大小的RAID分区,而RAID5却需要最少3个等大小的RAID分区。我们先建立三个等大小的RAID分区,如图10-23所示。

图10-23 选择驱动

接下来单击创建按钮,进入生成存储界面,如图10-24所示。

图10-24 生成存储

在这里同样需要选择RAID设备单选按钮,然后单击创建按钮,进入创建RAID设备界面,如图10-25所示。

图10-25 创建RAID设备

创建RAID设备界面中,挂载点仍然选择/分区,不过RAID级别选择的是RAID5,同时勾选组成RAID5的三个分区,单击确定按钮,RAID 5的/分区就建立完成了。

10.3.3 命令模式配置RAID 5

图形界面确实方便,不过RAID 和LVM一样,主要的应用还是在命令行当中,因为如果硬盘出现了数据损坏,总不能重新安装吧!那么我们学习在命令行界面中如何分配和使用RAID,这次我们仍然使用相同大小的分区配置最为常见的RAID5。

  1. 建立三个2GB大小的分区和一个2GB大小的备份分区

我们还是建立三个2GB大小的分区,构建RAID5。不过我们多建立了一个分区,这个分区用作备份分区。

这个备份分区的作用是什么呢?RAID最大的好处就是具有数据冗余功能,当有一块硬盘或分区损坏时,数据不会丢失,只要插入新的硬盘或分区,依赖其他分区就会主动重建损坏的硬盘或分区中的数据。不过这仍然需要关闭服务器,手工插拔硬盘。如果在组成RAID的时候就加入了备份硬盘或备份分区,那么当硬盘或分区损坏时,RAID 会自动用备份硬盘或备份分区代替损坏的硬盘或分区,然后立即重建数据,而不需要人为手工参与。这样就避免了服务器停机和人为手工参与,非常方便,唯一的问题就是需要多余的硬盘或分区作为备份设备。

也就是说,我们在这个实验中需要4个2GB大小的分区,其中3个组成RAID5,1个作为备份分区。建立分区的过程这里不再详细解释,建立完分区之后,可以使用fdisk -l 命令查看。命令如下:

[root@localhost ~]# fdisk -l...省略部分输出...Command (m for help): p

Disk /dev/sdb: 21.5 GB, 21474836480 bytes, 41943040 sectorsUnits = sectors of 1 * 512 = 512 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 512 bytes / 512 bytesDisk label type: dosDisk identifier: 0xe1650ba2

   Device Boot      Start         End      Blocks   Id  System/dev/sdb1            2048    41943039    20970496    5  Extended/dev/sdb5            4096     4198399     2097152   83  Linux/dev/sdb6         4200448     8394751     2097152   83  Linux/dev/sdb7         8396800    12591103     2097152   83  Linux/dev/sdb8        12593152    16787455     2097152   83  Linux 我们建立了/dev/sdb5、/dev/sdb6、/dev/sdb7、/dev/sdb8共4个2GB大小的分区。
  1. 建立RAID5

建立RAID使用mdadm命令,命令格式如下:

[root@localhost ~]# mdadm [模式] [RAID设备文件名] [选项]
模式 说明
Assemble 加入一个已经存在的阵列;
Build 创建一个没有超级块的阵列;
Create 创建一个阵列,每个设备都具有超级块;
Manage 管理阵列,如添加设备和副除损坏设备;
Misc 允许单独对阵列中的设备进行操作,如停止阵列;
Follow or Monitor 监控RAID状态;
Grow 改变RAID的容量或阵列中的数目;
选项 说明
-s,--scan 扫描配置文件或/proc/mdstat文件,发现丢失的信息;
-D,--detai1 查看磁盘阵列详细信息;
-C,--create 建立新的磁盘阵列,也就是调用Create模式;
-a,--auto=yes 采用标准格式建立磁盘阵列;
-n,--raid-devices=数字 使用几块硬盘或分区组成RAID;
-1,--leve1=级别 创建RAID的级别,可以是0,1,5;
-x,--spare-devices=数字 使用几块硬盘或分区组成备份设备;
-a,--add 设备文件名 在已经存在的RAID中加入设备;
-r,--remove 设备文件名 在已经存在的rAID中移除设备;
-f,--fail 设备文件名 把某个组成RAID的设备设置为错误状态;
-S,--stop 停止RAID设备;
-A,--assemble 按照配置文件加载RAID;

我们准备创建的是RAID5,所以使用以下命令创建:

[root@localhost ~]# mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sdb5 /dev/sdb6 /dev/sdb7 /dev/sdb8

其中,/dev/md0 是第一个RAID设备的设备文件名,如果还有RAID设备,则可以使用/dev/md[0~9]来代表。我们建立了RAID5,使用了三个分区,并建立了一个备份分区。先查看一下新建立的/dev/md0,命令如下:

[root@localhost ~]# mdadm --detail /dev/md0 /dev/md0: ←设备文件名           Version : 1.2     Creation Time : Tue Mar 24 17:00:39 2020 ←创建时间        Raid Level : raid5 ←RAID级别        Array Size : 4188160 (3.99 GiB 4.29 GB) ←RAID总容量     Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB) ←每个分区的容量      Raid Devices : 3 ←组成RAID的设备数     Total Devices : 4 ←总设备数       Persistence : Superblock is persistent

       Update Time : Tue Mar 24 17:00:45 2020             State : clean     Active Devices : 3 ←激活的设备数   Working Devices : 4 ←可用的设备数    Failed Devices : 0 ←错误的设备数     Spare Devices : 1 ←备份设备数

            Layout : left-symmetric        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost.localdomain:0  (local to host localhost.localdomain)              UUID : f46ca3d4:b41baed1:5905e55f:2aa4de77            Events : 18

    Number   Major   Minor   RaidDevice State       0       8       21        0      active sync   /dev/sdb5       1       8       22        1      active sync   /dev/sdb6       4       8       23        2      active sync   /dev/sdb7    #三个激活的分区       3       8       24        -      spare   /dev/sdb8    #备份分区

在查看一下/proc/mdstat文件,这个文件中也保存了RAID的相关信息,命令如下:

[root@localhost ~]# cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sdb7[4] sdb8[3](S) sdb6[1] sdb5[0]#RAID名    级别  组成RAID的分区,[数字]是此分区在RAID中的顺序,(S)代表备份分区        4188160 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]#总block数    等级是5  区块大小    阵列算法    [组成设备数/正常设备数]    unused devices: 
  1. 格式化与挂载RAID

RAID5已经创建,但是要想正常使用,也需要格式化和挂载,格式化命令如下:

[root@localhost ~]# mkfs -t ext4 /dev/md0

挂载命令如下:

[root@localhost ~]# mkdir /raid5#创建挂载点[root@localhost ~]# mount /dev/md0 /raid5/#挂载/dev/md0[root@localhost ~]# mount | grep raid/dev/md0 on /raid5 type ext4 (rw,relatime,seclabel,stripe=256,data=ordered)#查看一下,已经正常挂载
  1. 生成mdadm配置文件

在CentOS 6.x中,mdadm配置文件并不存在,需要手工建立,我们使用一下命令建立/etc/mdadm.conf配置文件。

[root@localhost ~]# echo Device /dev/sdb[5-8] >> /etc/mdadm.conf#建立/etc/mdadm.conf配置文件,并把组成RAID的分区设备文件名写入#注意:如果有多个RAID,则要把所有组成RAID的设备都放入配置文件中;否则RAID设备重启后悔丢失,比如组成RAID10,就纪要把分区的设备文件名放入此文件中,也要把组成RAID 0的RAID 1设备文件名放入

[root@localhost ~]# mdadm -Ds >> /etc/mdadm.conf #查询和扫描RAID信息,并追加进/etc/mdadm.conf[root@localhost ~]# cat /etc/mdadm.conf Device /dev/sdb5 /dev/sdb6 /dev/sdb7 /dev/sdb8ARRAY /dev/md0 metadata=1.2 spares=1 name=localhost.localdomain:0 UUID=f46ca3d4:b41baed1:5905e55f:2aa4de77#查看文件内容
  1. 设置开机后自动挂载

自动挂载也要修改/etc/fstab配置文件,命令如下:

[root@localhost ~]# vim /etc/fstab/dev/md0        /raid5  ext4    defaults        0       0#加入此行

如果要重启,则一定要在这一步自动挂载完成之后再进行,否则会报错。

  1. 启动或停止RAID

RAID设备生效后,不用手工启动或停止。但是,如果需要卸载RAID设备,就必须手工停止RAID。这里我们学习一下启动和停止 RAID的方法。先看看停止命令:

[root@localhost ~]# umount /dev/md0 #卸载RAID[root@localhost ~]# mdadm -S /dev/md0#必须要先卸载,才能停止/dev/md0设备

当然,如果要删除RAID,则要非常小心,要把所有和RAID相关的内容全部删除,才能保证系统不报错。需要进行的步骤如下:

[root@localhost ~]# umount /dev/md0 #卸载RAID[root@localhost ~]# vim /etc/fstab/dev/md0        /raid5  ext4    defaults        0       0#删除此行[root@localhost ~]# mdadm -S /dev/md0#停止RAID[root@localhost ~]# vim /etc/mdadm.conf ARRAY /dev/md0 metadata=1.2 spares=1 name=localhost.localdomain:0 UUID=f46ca3d4:b41baed1:5905e55f:2aa4de77#删除此行或者注释此行

如果仅仅是停止,而不是删除,就没有这么麻烦了,只需先卸载,再停止即可。那停止完成之后,怎么再启动呢?启动RAID的命令如下:

[root@localhost ~]# mdadm -As /dev/md0mdadm: /dev/md0 has been started with 3 drives and 1 spare.#启动/dev/md0[root@localhost ~]# mount /dev/md0 /raid5/#启动RAID后,记得挂载
  1. 模拟分区出现故障

我们的RAID虽然配置完成了,但是它真的生效了吗?我们模拟磁盘报错,看看备份分区会自动代替错误分区。mdadn命令有一个选项-f,这个选项的作用就是把一块硬盘或分区变成错误状态,用来模拟RAID报错,命令如下:

[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb7mdadm: set /dev/sdb7 faulty in /dev/md0#模拟/dev/sdb7分区报错[root@localhost ~]# mdadm -D /dev/md0 /dev/md0:...省略部分输出...     Active Devices : 2   Working Devices : 3    Failed Devices : 1  #←一个设备报错     Spare Devices : 1...省略部分输出...     Number   Major   Minor   RaidDevice State       0       8       21        0      active sync   /dev/sdb5       1       8       22        1      active sync   /dev/sdb6       3       8       24        2      spare rebuilding   /dev/sdb8#/dev/sdb8分区正在准备修复       4       8       23        -      faulty  spare   /dev/sdb7#/dev/sdb7已经报错了

要想看到上面的效果,查看时要快一点,否则修复就可能完成了。因为有备份分区的存在,所以分区损坏了,是不用管理员手动参与的。如果修复完成,在查看,就会看到下面的情况:

[root@localhost ~]# mdadm -D /dev/md0     Number   Major   Minor   RaidDevice State       0       8       21        0      active sync   /dev/sdb5       1       8       22        1      active sync   /dev/sdb6       3       8       24        2      active sync   /dev/sdb8

       4       8       23        -      faulty   /dev/sdb7
  1. 移除错误分区

既然分区已经报错了,我们就把/dev/sdb7分区从RAID中删除。如果这是硬盘,就可以进行更换硬盘的处理了,移除命令如下:

[root@localhost ~]# mdadm /dev/md0 --remove /dev/sdb7mdadm: hot removed /dev/sdb7 from /dev/md0
  1. 添加新的备份分区

既然分区已经报错,那么我们还需要加入一个新的备份分区,以备下次硬盘或分区出现问题。既然要加入新的备份分区,当然还需要再划分出一个2GB大小的分区出来,命令如下:

[root@localhost ~]# fdisk -l   Device Boot      Start         End      Blocks   Id  System/dev/sdb1            2048    41943039    20970496    5  Extended/dev/sdb5            4096     4198399     2097152   83  Linux/dev/sdb6         4200448     8394751     2097152   83  Linux/dev/sdb7         8396800    12591103     2097152   83  Linux/dev/sdb8        12593152    16787455     2097152   83  Linux/dev/sdb9        16789504    20983807     2097152   83  Linux

我们新建了/dev/sdb9分区,然后把它加入/dev/md0作为备份分区,命令如下:

[root@localhost ~]# mdadm /dev/md0 --add /dev/sdb9#把/dev/sdb9加入/dev/md0[root@localhost ~]# mdadm -D /dev/md0     Number   Major   Minor   RaidDevice State       0       8       21        0      active sync   /dev/sdb5       1       8       22        1      active sync   /dev/sdb6       3       8       24        2      active sync   /dev/sdb8

       4       8       25        -      spare  /dev/sdb9#查看一下,/dev/sdb9已经变为备份分区

4块硬盘做raid几_Linux高级文件系统管理之RAID相关推荐

  1. 4块硬盘做raid几_HP-P4500存储RAID硬盘离线数据恢复案例

    在这里北亚小编分享一篇关于HP-P4500存储RAID硬盘离线数据恢复案例,经客户描述:一台HP-P4500的存储系统,底层是12块1TB的硬盘组的RAID.其中每6个1TB的盘一组,第一组的前面一部 ...

  2. 服务器配置RAID5(3块硬盘做RAID5,另外再弄一块做数据冗余盘)

    仅作为原理解释,其他机型依照具体参照基本参数设置 ①4块硬盘做成RAID5 ②3块硬盘做RAID5,一块硬盘做热备盘 这两种配置之间的区别.大家应该都知道RAID5最少需要三块硬盘,其中有一块硬盘是用 ...

  3. Ubuntu Server 16.04 安装并用两块硬盘做RAID1

    公司为了集中管理项目数据,要求搭建一台文件服务器,通过多次尝试终于搭建完成,在此将Ubuntu Server 16.04安装过程并用两块硬盘做RAID1分享给大家. 特别提示:尽量用英文安装,因为中文 ...

  4. 【Linux系统管理】09 文件系统管理 高级文件系统管理

    一 文件系统管理 1.1 硬盘结构 1.1.1 硬盘的逻辑结构 每个扇区的大小事固定的,为512Byte.扇区也是磁盘的最小存贮单位.0 磁道,0 扇区 指的就是第一个磁道的第一个扇区.一般是磁盘的最 ...

  5. 11. Linux高级文件系统管理(1)

    目录 11.1 磁盘配额是什么 磁盘配额中的常见概念 11.2 磁盘配额启动前的准备工作 11.3 Linux扫描文件系统并建立磁盘配额记录文件(quotacheck命令) 11.4 Linux开启磁 ...

  6. 01_Linux系统管理_基础知识_高级文件系统管理_磁盘配额(quota)

    环境 虚拟机:VMware-10.0.7 build-2844087 Linux系统:CentOS 6.8 远程工具:Xshell 6 (Build 0197) 01_Linux系统管理_基础知识_高 ...

  7. 如何用两块硬盘做磁盘阵列的教程Raid 1

    如今,市面上的大部分服务器都自带有阵列卡.只要有两块以上硬盘,我们就可以利用服务器自带的阵列卡做磁盘阵列.Raid 1 为例.Raid 1 是磁盘阵列的其中一个系列,将两块硬盘构成磁盘阵列,可以保证数 ...

  8. linux系统4块硬盘做raid,linux部署raid阵列

    Llinux中磁盘阵列raid5的部署详细过程 1.首先给虚拟机添加4块硬盘. 添加过程我就不做介绍了.因为raid5是最少是需要有4块盘的.3个做数据写入,一块做热备. 假设现在已经添加好盘了,我们 ...

  9. 【服务器数据恢复】RAID5多块硬盘离线但是热备盘未激活导致RAID崩溃的数据恢复案例

    服务器数据恢复环境: IBM某型号服务器,5个SAS硬盘组建RAID5(4个数据盘,1个热备盘): linux redhat操作系统: 上层应用为oa,数据库为oracle:oracle已经不对本案例 ...

最新文章

  1. 一台主机装两个mysql数据库_一台主机装两个mysql数据库
  2. PYQT5登录界面跳转主界面方法
  3. 分享一个自己用的Objective-C的Http接连类
  4. 产业企业和投资机会研究(中小板、创业板) 碧水源(300070)创业板
  5. java string 常量池_用了这么久Java String,你真的懂字符串常量池吗?
  6. .NET简谈事务、分布式事务处理
  7. AVB Digest转换成ASCII码
  8. 14002.petalinux编译配置项目
  9. linux下安装配置net-snmp
  10. 模糊综合评价的 matlab,模糊综合评价法代码matlab
  11. pe卸载win10更新补丁_禁用Win10系统更新
  12. dfuse 为你提供定制网络服务
  13. 乔纳森·艾维:iPhoneX准备了五年,苹果仍在不断创新
  14. K-means(K均值原型聚类)
  15. java关键字this含义_java的关键字this的意义及作用
  16. Linux /dev/mapper/ubuntu--vg-ubuntu--lv 磁盘空间不足的问题
  17. JZ-008-跳台阶
  18. 计算机软件技术基础复习
  19. 2022年亚太地区大学生数学建模竞赛/2022年亚太杯ABCD题思路
  20. python获取游戏数据_Python 爬取 3 万条游戏评分数据,原来程序员最爱玩的游戏竟然是.........

热门文章

  1. 0705 - 说说 NSPopover 的一个坑
  2. Spring依赖注入(DI)
  3. linux 定时执行shell脚本 定时任务
  4. CSS 实现加载动画之四-圆点旋转
  5. 剑指OFFER之栈的压入、弹出序列(九度OJ1366)
  6. 软工三(5.12上课)
  7. 解决HBase RegionServer进程还在,但是显示已经dead了
  8. JVM调优:指定垃圾回收器组合
  9. Windows查看进程端口占用命令
  10. Hadoop RPC客户端调用服务代码示例