1.RAID   
    RAID 0:将多个软盘合并成一个大的软盘,不具有冗余,并行I/O,速度最快。RAID 0亦称为带区集。它是将多个磁盘并列起来,成为一个大磁盘。在存放数据时,其将数据按磁盘的个数来进行分段,然后同时将这些数据写进这些盘中。 所以,在所有的级别中,RAID 0的速度是最快的。但是RAID 0没有冗余功能,如果一个磁盘(物理)损坏,则所有的数据都会丢失。
    RAID 1:两组以上的N个磁盘相互作镜像,在一些多线程操作系统中能有很好的读取速度,另外写入速度有微小的降低。除非拥有相同数据的主软盘与镜像同时损坏,否则只要一个磁盘正常即可维持运作,可靠性最高。RAID 1就是镜像。其原理为在主硬盘上存放数据的同时也在镜像硬盘上写一样的数据。当主硬盘(物理)损坏时,镜像硬盘则代替主硬盘的工作。因为有镜像硬盘做数据备份,所以RAID 1的数据安全性在所有的RAID级别上来说是最好的。但无论用多少软盘做RAID 1,仅算一个软盘的容量,是所有RAID上磁盘利用率最低的一个级别。
    RAID 3:采用Bit-interleaving(数据交错存储)技术,它需要通过编码再将数据比特分区后分别存在硬盘中,而将同比特检查后单独存在一个硬盘中,但由于数据内的比特分散在不同的硬盘上,因此就算要读取一小段数据资料都可能需要所有的硬盘进行工作,所以这种规格比较适于读取大量数据时使用。
    RAID 5:RAID Level 5 是一种存储性能、数据安全和存储成本兼顾的存储解决方案。它使用的是Disk Striping(硬盘分区)技术。RAID 5 至少需要三颗硬盘, RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。 RAID 5可以理解为是RAID 0和RAID 1的折衷方案。RAID 5可以为系统提供数据安全保障,但保障程度要比镜像低而磁盘空间利用率要比镜像高。RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,写入数据的速度相当的慢,若使用“回写高速缓存”可以让性能改善不少。同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较便宜。

实验:创建RAID[0,1,5]
创建raid0:
1.创建几个相同大小的磁盘分区,分区类型为fd
    [root@station176 ~]# fdisk -l|grep sdb
Disk /dev/sdb: 12.9 GB, 12884901888 bytes
/dev/sdb1               1          39      313236   fd  Linux raid autodetect
/dev/sdb2              40          78      313267+  fd  Linux raid autodetect
/dev/sdb3              79         117      313267+  fd  Linux raid autodetect
/dev/sdb4             118        1566    11639092+   5  Extended
/dev/sdb5             118         156      313236   fd  Linux raid autodetect
/dev/sdb6             157         195      313236   fd  Linux raid autodetect
/dev/sdb7             196         234      313236   fd  Linux raid autodetect
/dev/sdb8             235         273      313236   fd  Linux raid autodetect
/dev/sdb9             274         312      313236   fd  Linux raid autodetect
/dev/sdb10            313         351      313236   fd  Linux raid autodetect

2.查询系统是否安装mdadm
[root@station176 ~]# rpm -qa|grep mdadm
mdadm-3.2.1-1.el6.i686

3.创建raid
[root@station176 ~]# mdadm --create /dev/md0 --level=0 --raid-devices=4 /dev/sdb5 /dev/sdb6 /dev/sdb7 /dev/sdb8
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

--level:raid的级别
--raid-devices:几个分区组成的raid

4.查看一下
[root@station176 ~]# cat /proc/mdstat
Personalities : [raid0]
md0 : active raid0 sdb8[3] sdb7[2] sdb6[1] sdb5[0]
      1247232 blocks super 1.2 512k chunks
unused devices: <none>

启动前先查看一下配置文档:/etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf

ARRAY /dev/md0 metadata=1.2 name=station.example176.com:0 UUID=6f60969d:293adf13:28ff9ca2fcd1c2d
表示/dev/md0可用

格式化/dev/md0
[root@station176 ~]# mkfs -t ext3 /dev/md0
mke2fs 1.41.12 (17-May-2010)
文件系统标签=
操作系统:Linux
块大小=4096 (log=2)
分块大小=4096 (log=2)
Stride=128 blocks, Stripe width=512 blocks
78080 inodes, 311808 blocks
15590 blocks (5.00%) reserved for the super user
第一个数据块=0
Maximum filesystem blocks=322961408
10 block groups
32768 blocks per group, 32768 fragments per group
7808 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912

正在写入inode表: 完成
Creating journal (8192 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

This filesystem will be automatically checked every 22 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

挂载:
[root@station176 ~]# mount /dev/md0 /md0/
[root@station176 ~]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.6G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/md0              1.2G   34M  1.1G   3% /md0

若是开机自动挂载,修改/etc/fstab
/dev/md0                /md0                    fd      defaults        0 0

关闭/dev/md0的方法:
[root@station176 ~]# umount /md0/
[root@station176 ~]# mdadm -S /dev/md0
mdadm: stopped /dev/md0   
raid0的特点:速度快,磁盘利用率高
   
   
raid5的创建:   
[root@station176 ~]# mdadm  --create /dev/md0 --level=5 --raid-devices=4 /dev/sdb1 /dev/sdb2 /dev/sdb3 /dev/sdb9  --spare-devices=1 /dev/sdb10
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

[root@station176 ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid5 sdb9[5] sdb10[4](S) sdb3[2] sdb2[1] sdb1[0]
      938496 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
      [=======>.............]  recovery = 36.4% (114408/312832) finish=1.3min speed=2447K/sec

unused devices: <none>
热备份(Hot Spare) 与CPU系统带电连接的硬盘,它能替换下系统中的故障盘。与冷备份的区别是,冷备份盘平时与机器不相连接,硬盘故障时才换下故障盘。

移除坏掉的硬盘(热备份)
[root@station176 ~]# mdadm /dev/md0 --fail /dev/sdb2 --remove /dev/sdb2
mdadm: set /dev/sdb2 faulty in /dev/md0
mdadm: hot removed /dev/sdb2 from /dev/md0
[root@station176 ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid5 sdb9[5] sdb10[4] sdb3[2] sdb1[0]
      938496 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [U_UU]
      [============>........]  recovery = 63.7% (199700/312832) finish=0.7min speed=2630K/sec

unused devices: <none>

添加热盘:
[root@station176 ~]# mdadm /dev/md0 --add /dev/sdb7
mdadm: added /dev/sdb7
[root@station176 ~]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid5 sdb7[6](S) sdb9[5] sdb10[4] sdb3[2] sdb1[0]
      938496 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]

unused devices: <none>

扩容:
[root@station176 ~]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.6G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/md0              903M  903M  0M   3% /md0

表示磁盘已用完:
增加两个分区
[root@station176 md0]# mdadm /dev/md0 --add /dev/sdb5 /dev/sdb6
mdadm: added /dev/sdb5
mdadm: added /dev/sdb6

将增加分区的大小添加到raid5中
[root@station176 md0]# mdadm --grow /dev/md0 --raid-devices=5
mdadm: Need to backup 6144K of critical section..

查看增添的进程
[root@station176 md0]# cat /proc/mdstat
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid5 sdb6[8] sdb5[7](S) sdb7[6](S) sdb9[5] sdb10[4] sdb3[2] sdb1[0]
      938496 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU]
      [>....................]  reshape =  1.6% (5232/312832) finish=14.4min speed=353K/sec

unused devices: <none>

使用resize2fs /dev/md0使增加的容量生效
[root@station176 md0]# resize2fs /dev/md0
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/md0 is mounted on /md0; on-line resizing required
old desc_blocks = 1, new_desc_blocks = 1
Performing an on-line resize of /dev/md0 to 312832 (4k) blocks.
The filesystem on /dev/md0 is now 312832 blocks long.

[root@station176 md0]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.6G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/md0              1.2G   18M  1.2G   2% /md0

raid5的特点:磁盘利用率比raid0低但比镜像高,数据备份比镜像低却比raid0高,是raid0和raid1的折中方案

====================LVM=======================   
lvm:逻辑盘卷管理(Logical Volume Manager)的简称,它是Linux环境下对磁盘分区进行管理的一种机制,LVM是建立在硬盘和分区之上的一个逻辑层,来提高磁盘分区管理的灵活性。通过LVM系统管理员可以轻松管理磁盘分区,如:将若干个磁盘分区连接为一个整块的卷组(volume group),形成一个存储池。管理员可以在卷组上随意创建逻辑卷组(logical volumes),并进一步在逻辑卷组上创建文件系统。管理员通过LVM可以方便的调整存储卷组的大小,并且可以对磁盘存储按照组的方式进行命名、管理和分配,例如按照使用用途进行定义:“development”和“sales”,而不是使用物理磁盘名“sda”和“sdb”。而且当系统添加了新的磁盘,通过LVM管理员就不必将磁盘的文件移动到新的磁盘上以充分利用新的存储空间,而是直接扩展文件系统跨越磁盘即可。
PE(physical extent):每一个物理卷被划分为称为PE(Physical Extents)的基本单元,具有唯一编号的PE是可以被LVM寻址的最小单元。PE的大小是可配置的,默认为4MB。
LE(logical extent):逻辑卷也被划分为被称为LE(Logical Extents) 的可被寻址的基本单位。在同一个卷组中,LE的大小和PE是相同的,并且一一对应。
PV 物理卷(physical volume):物理卷就是指硬盘分区或从逻辑上与磁盘分区具有同样功能的设备(如RAID),是LVM的基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比较,却包含有与LVM相关的管理参数。
VG卷组(Volume Group):LVM卷组类似于非LVM系统中的物理硬盘,其由物理卷组成。可以在卷组上创建一个或多个“LVM分区”(逻辑卷),LVM卷组由一个或多个物理卷组成。
LV逻辑卷(logical volume):LVM的逻辑卷类似于非LVM系统中的硬盘分区,在逻辑卷之上可以建立文件系统(比如/home或者/usr等)。针对操作系统而言的可用空间 (逻辑对象)
物理卷(PV)被由大小等同的基本单元PE组成。一个卷组(VG)由一个或多个物理卷(PV)组成,逻辑卷建立在卷组上。逻辑卷(LV)就相当于非LVM系统的磁盘分区,可以在其上创建文件系统。和非LVM系统将包含分区信息的元数据保存在位于分区的起始位置的分区表中一样,逻辑卷以及卷组相关的元数据也是保存在位于物理卷起始处的VGDA(卷组描述符区域)中。VGDA包括以下内容: PV描述符、VG描述符、LV描述符、和一些PE描述符 。系统启动LVM时激活VG,并将VGDA加载至内存,来识别LV的实际物理存储位置。当系统进行I/O操作时,就会根据VGDA建立的映射机制来访问实际的物理位置。
       
查询系统中是否安装了LVM
    [root@station176 ~]# rpm -qa | grep lvm
    lvm2-libs-2.02.83-3.el6.i686
    lvm2-2.02.83-3.el6.i686

创建和管理LVM
    1)创建分区:(在虚拟机上新添了个sata虚拟硬盘/dev/sdb,用fdisk工具进行分区,将LVM的分区类型弄为8e)
[root@station176 ~]# fdisk -l
Disk /dev/sdb: 12.9 GB, 12884901888 bytes
255 heads, 63 sectors/track, 1566 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x111a09ea

2)查看创建的分区
[root@station176 ~]# fdisk -l | grep /dev/sdb
Disk /dev/sdb: 12.9 GB, 12884901888 bytes
/dev/sdb1               1          65      522081   8e  Linux LVM
/dev/sdb2              66         130      522112+  8e  Linux LVM
/dev/sdb3             131         195      522112+  8e  Linux LVM
/dev/sdb4             196        1566    11012557+   5  Extended
/dev/sdb5             196         260      522081   8e  Linux LVM
/dev/sdb6             261         325      522081   8e  Linux LVM
/dev/sdb7             326         390      522081   8e  Linux LVM
/dev/sdb8             391         455      522081   8e  Linux LVM
/dev/sdb9             456         520      522081   8e  Linux LVM
/dev/sdb10            521         585      522081   8e  Linux LVM
/dev/sdb11            586        1566     7879851   8e  Linux LVM

3)将分区转化成PE
[root@station176 ~]# pvcreate /dev/sdb{1,2,3,5,6,7,8,9,10}

[root@station176 ~]# pvdisplay
  "/dev/sdb3" is a new physical volume of "509.88 MiB"
  --- NEW Physical volume ---                        
  PV Name               /dev/sdb3                    
  VG Name                                            
  PV Size               509.88 MiB                   
  Allocatable           NO                           
  PE Size               0                            
  Total PE              0                            
  Free PE               0                            
  Allocated PE          0                            
  PV UUID               9iWGMF-gWVR-2A5p-4mv1-xFKE-WCqn-Vv89Ql

[root@station176 ~]# pvcreate sdb1                           
  Device sdb1 not found (or ignored by filtering).           
[root@station176 ~]# pvcreate /dev/sdb1                      
  Physical volume "/dev/sdb1" successfully created           
[root@station176 ~]# pvcreate /dev/sdb2
  Physical volume "/dev/sdb2" successfully created
[root@station176 ~]# pvdisplay                   
  "/dev/sdb1" is a new physical volume of "509.84 MiB"
  --- NEW Physical volume ---                        
  PV Name               /dev/sdb1                    
  VG Name                                            
  PV Size               509.84 MiB                   
  Allocatable           NO                           
  PE Size               0                            
  Total PE              0                            
  Free PE               0                            
  Allocated PE          0                            
  PV UUID               Tmj1b3-3xHE-Hem1-yGnl-Z4Ul-PlG8-r0VRyq
                                                             
4)将/dev/sdb1,/dev/sdb2,/dev/sdb3的分区创建成一个物理卷(创建一个叫myvg的物理卷)
[root@station176 ~]# vgcreate myvg /dev/sdb1 /dev/sdb2 /dev/sdb3
  Volume group "myvg" successfully created

5)查看myvg物理卷的信息(三种命令查看)
其一:
[root@station176 ~]# vgdisplay
  --- Volume group ---
  VG Name               myvg
  System ID
  Format                lvm2
  Metadata Areas        3
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                3
  Act PV                3
  VG Size               1.49 GiB    #物理卷的大小是1.5G
  PE Size               4.00 MiB    #PE的大小为4M
  Total PE              381
  Alloc PE / Size       0 / 0
  Free  PE / Size       381 / 1.49 GiB        #总共有381个PE单元
  VG UUID               xdIIRB-z1ea-uxlX-TExF-El0F-Lb8H-yrl96Y

其二:
[root@station176 ~]# vgscan
  Reading all physical volumes.  This may take a while...
  Found volume group "myvg" using metadata type lvm2

其三:
[root@station176 ~]# vgs
  VG   #PV #LV #SN Attr   VSize VFree
  myvg   3   0   0 wz--n- 1.49g 1.49g

6)在物理卷中创建逻辑卷
[root@station176 ~]# lvcreate -i 3 -l 381 -n mylv myvg
  Using default stripesize 64.00 KiB
  Logical volume "mylv" created

参数含义:i 并发数,几个pv
          l PE的数量
          n 代表name

7)查看mylv的信息
其一:
[root@station176 ~]# lvs
  LV   VG   Attr   LSize Origin Snap%  Move Log Copy%  Convert
  mylv myvg -wi-a- 1.49g
其二:
[root@station176 ~]# lvdisplay
  --- Logical volume ---
  LV Name                /dev/myvg/mylv
  VG Name                myvg
  LV UUID                sJVaAq-EhYF-Lj0n-Dh6G-E0Z2-pHu8-FYJxp1
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                1.49 GiB
  Current LE             381
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     768
  Block device           253:0
其三:
[root@station176 ~]# lvscan
  ACTIVE            '/dev/myvg/mylv' [1.49 GiB] inherit

8)mylv的的存放目录
[root@station176 ~]# ls /dev/mapper/myvg-mylv
/dev/mapper/myvg-mylv
[root@station176 ~]# ls /dev/myvg/mylv
/dev/myvg/mylv
[root@station176 ~]# ls /dev/dm-0
/dev/dm-0

总共三个:/dev/mapper/myvg-mylv,/dev/myvg/mylv,/dev/dm-0 ,推荐使用/dev/mapper/myvg-mylv

fdisk -l
Disk /dev/mapper/myvg-mylv: 1598 MB, 1598029824 bytes
255 heads, 63 sectors/track, 194 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 65536 bytes / 196608 bytes
Disk identifier: 0x00000000
   
9)为了立即使用卷组,而不用重启系统,使用lvchange 激活卷组
[root@station176 ~]# lvchange -a y /dev/mapper/myvg-mylv

10)把mylv的逻辑卷给用完,实验一下如何扩容mylv的大小
格式化/dev/myvg/mylv
[root@station176 ~]# mkfs -t ext3 /dev/mapper/myvg-mylv
mke2fs 1.41.12 (17-May-2010)
文件系统标签=
操作系统:Linux
块大小=4096 (log=2)
分块大小=4096 (log=2)
Stride=16 blocks, Stripe width=48 blocks
97536 inodes, 390144 blocks
19507 blocks (5.00%) reserved for the super user
第一个数据块=0
Maximum filesystem blocks=402653184
12 block groups
32768 blocks per group, 32768 fragments per group
8128 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912

正在写入inode表: 完成
Creating journal (8192 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

第二步:创建一个/mylv的目录
[root@station176 ~]# mkdir /mylv

第三步:挂载/dev/myvg/mylv到/mylv
[root@station176 ~]# mount /dev/mapper/myvg-mylv /mylv
[root@station176 ~]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.5G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/mapper/myvg-mylv
                      1.5G   35M  1.4G   3% /mylv

若是想开机便自动挂,修改/etc/fstab文件
/dev/mapper/myvg-mylv   /mylv                   Linux LVM       defaults 0 0

第四步:在/mylv的目录下创建一个1.5G的文件,把空间挤满
[root@station176 mylv]# rm -r 1.img
rm:是否删除普通文件 "1.img"?y
[root@station176 mylv]# dd if=/dev/zero of=1.img bs=10M count=160
dd: 正在写入"1.img": 设备上没有空间
记录了147+0 的读入
记录了146+0 的写出
1535455232字节(1.5 GB)已复制,1031.74 秒,1.5 MB/秒

[root@station176 mylv]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.5G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/mapper/myvg-mylv
                      1.5G  1.5G     0 100% /mylv        可看到逻辑卷空间不够

第五步:扩展逻辑卷空间,有两种方法
方法一:
[root@station176 mylv]# vgextend myvg /dev/sdb6
  Volume group "myvg" successfully extended

[root@station176 mylv]# vgdisplay myvg
  --- Volume group ---
  VG Name               myvg
  System ID
  Format                lvm2
  Metadata Areas        4
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                4
  Act PV                4
  VG Size               1.98 GiB
  PE Size               4.00 MiB
  Total PE              508
  Alloc PE / Size       381 / 1.49 GiB
  Free  PE / Size       127 / 508.00 MiB
  VG UUID               xdIIRB-z1ea-uxlX-TExF-El0F-Lb8H-yrl96Y
可看到myvg有空闲的PE数,大概有500M的剩余容量
方法二:
[root@station176 ~]# vgcreate newvg /dev/sdb7 /dev/sdb8
  Volume group "newvg" successfully created

[root@station176 ~]# vgmerge myvg newvg
  Volume group "newvg" successfully merged into "myvg"

扩容lv
[root@station176 ~]# lvextend -i 3 -L +500M /dev/mapper/myvg-mylv
  Using stripesize of last segment 64.00 KiB
  Rounding size (506 extents) down to stripe boundary size for segment (504 extents)
  Extending logical volume mylv to 1.97 GiB
  Logical volume mylv successfully resized

再用resize2fs命令,将新增的逻辑卷大小添加进去
[root@station176 ~]# resize2fs /dev/mapper/myvg-mylv
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/mapper/myvg-mylv is mounted on /mylv; on-line resizing required
old desc_blocks = 1, new_desc_blocks = 1
Performing an on-line resize of /dev/mapper/myvg-mylv to 516096 (4k) blocks.
The filesystem on /dev/mapper/myvg-mylv is now 516096 blocks long.

用df -h的命令查看一下就知道了
[root@station176 ~]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.5G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/mapper/myvg-mylv
                      2.0G  1.5G  384M  80% /mylv
可看出文件系统容量扩大了

另外一种lv扩容:
先查看还有多少PE数量没使用
[root@station176 ~]# vgdisplay
  --- Volume group ---
  VG Name               myvg
  System ID
  Format                lvm2
  Metadata Areas        6
  Metadata Sequence No  5
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               1
  Max PV                0
  Cur PV                6
  Act PV                6
  VG Size               2.98 GiB
  PE Size               4.00 MiB
  Total PE              762
  Alloc PE / Size       504 / 1.97 GiB
  Free  PE / Size       258 / 1.01 GiB
  VG UUID               xdIIRB-z1ea-uxlX-TExF-El0F-Lb8H-yrl96Y
可知还有258个,将这258个PE全添进lv

[root@station176 ~]# lvextend -i 3 -l +258 /dev/mapper/myvg-mylv
  Using stripesize of last segment 64.00 KiB
  Extending logical volume mylv to 2.98 GiB
  Logical volume mylv successfully resized

[root@station176 ~]# lvextend -i 3 -l +258 /dev/mapper/myvg-mylv
  Using stripesize of last segment 64.00 KiB
  Extending logical volume mylv to 2.98 GiB
  Logical volume mylv successfully resized
[root@station176 ~]# resize2fs /dev/mapper/myvg-mylv
resize2fs 1.41.12 (17-May-2010)
Filesystem at /dev/mapper/myvg-mylv is mounted on /mylv; on-line resizing required
old desc_blocks = 1, new_desc_blocks = 1
Performing an on-line resize of /dev/mapper/myvg-mylv to 780288 (4k) blocks.
The filesystem on /dev/mapper/myvg-mylv is now 780288 blocks long.

用df -h查看文件系统容量有没有变化

[root@station176 ~]# df -h
文件系统              容量  已用  可用 已用%% 挂载点
/dev/sda1             4.9G  1.5G  3.1G  33% /
tmpfs                 194M     0  194M   0% /dev/shm
/dev/mapper/myvg-mylv
                      3.0G  1.5G  1.4G  53% /mylv

第六:如何删除逻辑卷,物理卷
先删除逻辑卷,再删除物理卷
[root@station176 ~]# umount /mylv
[root@station176 ~]# lvremove /dev/mapper/myvg-mylv        删除逻辑卷
Do you really want to remove active logical volume mylv? [y/n]: y
  Logical volume "mylv" successfully removed
先卸载,再删除

删除卷组
[root@station176 ~]# vgremove myvg
  Volume group "myvg" successfully removed

删除物理卷
[root@station176 ~]# pvremove /dev/sdb{1,2,3,5,6,7,8,9,10}
  Labels on physical volume "/dev/sdb1" successfully wiped
  Labels on physical volume "/dev/sdb2" successfully wiped
  Labels on physical volume "/dev/sdb3" successfully wiped
  Labels on physical volume "/dev/sdb5" successfully wiped
  Labels on physical volume "/dev/sdb6" successfully wiped
  Labels on physical volume "/dev/sdb7" successfully wiped
  Labels on physical volume "/dev/sdb8" successfully wiped
  Labels on physical volume "/dev/sdb9" successfully wiped
  Labels on physical volume "/dev/sdb10" successfully wiped

==================lvm镜像====================
1.创建一个卷组myvg(包含两个 大小相等的pv)
[root@station176 ~]# vgcreate myvg /dev/sdb5 /dev/sdb6
  No physical volume label read from /dev/sdb5       
  sysfs file /sys/block/sdb5/dev does not exist     
  Physical volume "/dev/sdb5" successfully created   
  No physical volume label read from /dev/sdb6
  Physical volume "/dev/sdb6" successfully created
  Volume group "myvg" successfully created

[root@station176 ~]# vgdisplay
  --- Volume group ---
  VG Name               myvg
  System ID
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               1016.00 MiB
  PE Size               4.00 MiB
  Total PE              254
  Alloc PE / Size       0 / 0
  Free  PE / Size       254 / 1016.00 MiB
  VG UUID               Hr3Fck-bysU-zdDX-ZfMx-uj9a-WNEp-JiZFFw

2.创建逻辑卷(创建一个镜像逻辑卷大小为500M,需要两个大小一致的物理卷)
[root@station176 ~]# lvcreate -m 1 -l 127 --mirrorlog core -n mylv myvg
  Logial volume "mylv" created
-m 1:就是在两个物理卷上创建1个镜像that is, a linear volume plus one copy.(一个直接存储,一个复制)
--mirrorlog core:日志没有独立存储

[root@station176 ~]# lvdisplay
  --- Logical volume ---
  LV Name                /dev/myvg/mylv
  VG Name                myvg
  LV UUID                CfZA2w-peKf-tH6T-qR1E-NIJ4-kxDR-5mUmt2
  LV Write Access        read/write
  LV Status              available
  # open                 0
  LV Size                508.00 MiB
  Current LE             127
  Mirrored volumes       2
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:2

[root@station176 ~]# lvcreate -m 1 -l 127 -n mylv myvg
  Insufficient suitable allocatable extents for logical volume : 127 more required
  Unable to allocate extents for mirror(s).
        --mirrorlog disk (default) 日志必须由一个磁盘进行存储

================iscsi网络磁盘===================
iscsi:网络磁盘共享
1.创建一个物理卷
[root@station176 ~]# fdisk -l|grep /dev/sdb
Disk /dev/sdb: 12.9 GB, 12884901888 bytes

将12.9G的空间全部建为物理卷
[root@station176 ~]# pvcreate /dev/sdb
  Physical volume "/dev/sdb" successfully created

[root@station176 ~]# pvdisplay
  "/dev/sdb" is a new physical volume of "12.00 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sdb
  VG Name
  PV Size               12.00 GiB
  Allocatable           NO
  PE Size               0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               xlsLbo-fCL0-ozs9-p2Sb-YsQA-aiIp-CHGU5

2.创建卷组
[root@station176 ~]# vgcreate myvg /dev/sdb
  Volume group "myvg" successfully created

[root@station176 ~]# vgdisplay
  --- Volume group ---
  VG Name               myvg
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               12.00 GiB
  PE Size               4.00 MiB
  Total PE              3071
  Alloc PE / Size       0 / 0
  Free  PE / Size       3071 / 12.00 GiB
  VG UUID               okvyNA-WT4Q-YP8C-PCqi-IyOz-g4Q7-iwt1y2

3.创建逻辑卷
在这里我创建6个lv,每个分配2G
[root@station176 ~]# lvcreate -L +2G -n A001 myvg
  Logical volume "A001" created
[root@station176 ~]# lvcreate -L +2G -n A002 myvg
  Logical volume "A002" created
[root@station176 ~]# lvcreate -L +2G -n A003 myvg
  Logical volume "A003" created                 
[root@station176 ~]# lvcreate -L +2G -n A004 myvg
  Logical volume "A004" created                 
[root@station176 ~]# lvcreate -L +2G -n A005 myvg
  Logical volume "A005" created                 
[root@station176 ~]# lvcreate -L +2G -n A006 myvg
Volume group "myvg" has insufficient free space (511 extents): 512 required.

A006创建没成功,查看一下还剩多少个PE数
[root@station176 ~]# pvdisplay
  --- Physical volume ---
  PV Name               /dev/sdb
  VG Name               myvg
  PV Size               12.00 GiB / not usable 4.00 MiB
  Allocatable           yes
  PE Size               4.00 MiB
  Total PE              3071
  Free PE               511
  Allocated PE          2560
  PV UUID               xlsLbo-fCL0-ozs9-p2Sb-YsQA-aiIp-CHGU5G

创建A006
[root@station176 ~]# lvcreate -l +511 -n A006 myvg
  Logical volume "A006" created

[root@station176 ~]# ls /dev/mapper/
control  myvg-A001  myvg-A002  myvg-A003  myvg-A004  myvg-A005  myvg-A006

6个lv创建成功

调用这6个lv,形成网络磁盘共享(服务是tgtd)
查询有没有装scsitarget-utils包
[root@station176 ~]# rpm -qa | grep scsi-target-util
scsi-target-utils-1.0.14-2.el6.i686

启动网络磁盘共享服务
[root@station176 ~]# service tgtd start
正在启动 SCSI target daemon:                              [确定]

生成共享设备名称
[root@station176 ~]# tgtadm --lld iscsi --op new --mode target --tid 1 --targetname iqn.2011-11.com.cluster.station176:A001                                                         
[root@station176 ~]# tgtadm --lld iscsi --op new --mode target --tid 2 --targetname iqn.2011-11.com.cluster.station176:A002                                                          
[root@station176 ~]# tgtadm --lld iscsi --op new --mode target --tid 3 --targetname iqn.2011-11.com.cluster.station176:A003
[root@station176 ~]# tgtadm --lld iscsi --op new --mode target --tid 4 --targetname iqn.2011-11.com.cluster.station176:A004
[root@station176 ~]# tgtadm --lld iscsi --op new --mode target --tid 5 --targetname iqn.2011-11.com.cluster.station176:A005
[root@station176 ~]# tgtadm --lld iscsi --op new --mode target --tid 6 --targetname iqn.2011-11.com.cluster.station176:A006

查看有哪些共享设备
[root@station176 ~]# tgtadm --lld iscsi --op show --mode target
Target 1: iqn.2011-11.com.cluster.station176:A001             
    System information:                                       
        Driver: iscsi                                         
        State: ready                                          
    I_T nexus information:                                    
    LUN information:                                          
        LUN: 0                                                
            Type: controller                                  
            SCSI ID: IET     00010000                         
            SCSI SN: beaf10                                   
            Size: 0 MB, Block size: 1                         
            Online: Yes                                       
            Removable media: No                               
            Readonly: No                                      
            Backing store type: null                          
            Backing store path: None                          
            Backing store flags:                              
    Account information:                                      
    ACL information:                                          
   
如果要删除共享磁盘: tgtadm --lld iscsi --op delete --mode target --tid <id>

设置逻辑单元数:
[root@station176 ~]# tgtadm --lld iscsi --op new --mode logicalunit --tid 1 --lun 1 --backing-store /dev/mapper/myvg-A001
[root@station176 ~]# tgtadm --lld iscsi --op new --mode logicalunit --tid 2 --lun 2 --backing-store /dev/mapper/myvg-A002
[root@station176 ~]# tgtadm --lld iscsi --op new --mode logicalunit --tid 3 --lun 3 --backing-store /dev/mapper/myvg-A003
[root@station176 ~]# tgtadm --lld iscsi --op new --mode logicalunit --tid 4 --lun 4 --backing-store /dev/mapper/myvg-A004
[root@station176 ~]# tgtadm --lld iscsi --op new --mode logicalunit --tid 5 --lun 5 --backing-store /dev/mapper/myvg-A005
[root@station176 ~]# tgtadm --lld iscsi --op new --mode logicalunit --tid 6 --lun 6 --backing-store /dev/mapper/myvg-A006
查看一下逻辑单位数
[root@station176 ~]# tgtadm --lld iscsi --op show --mode targetTarget 1: iqn.2011-11.com.cluster.station176:A001

客户端:
1.查询有没有装iscsi包
[root@station109 ~]# rpm -qa | grep iscsi
iscsi-initiator-utils-6.2.0.872-21.el6.x86_64
iscsi-initiator-utils-6.2.0.872-21.el6.i686

2.启动服务
[root@station109 ~]# service iscsi restart
停止 iscsi:                                               [确定]
正在启动 iscsi:                                           [确定]

3.查看服务器共享了哪些网络磁盘
[root@station109 ~]# iscsiadm -m discovery -t sendtargets -p 10.1.1.176
10.1.1.176:3260,1 iqn.2011-11.com.cluster.station176:A001
10.1.1.176:3260,1 iqn.2011-11.com.cluster.station176:A002
10.1.1.176:3260,1 iqn.2011-11.com.cluster.station176:A003
10.1.1.176:3260,1 iqn.2011-11.com.cluster.station176:A004
10.1.1.176:3260,1 iqn.2011-11.com.cluster.station176:A005
10.1.1.176:3260,1 iqn.2011-11.com.cluster.station176:A006

4.和服务器上的网络磁盘进行沟通(电脑启动自带挂载)
[root@station109 ~]# iscsiadm -m node -T iqn.2011-11.com.cluster.station176:A001 -p 10.1.1.176 -l                                                                                    
Logging in to [iface: default, target: iqn.2011-11.com.cluster.station176:A001, portal: 10.1.1.176,3260]
Login to [iface: default, target: iqn.2011-11.com.cluster.station176:A001, portal: 10.1.1.176,3260] successful.

5.停止访问
[root@station109 ~]# iscsiadm -m node -T iqn.2011-11.com.cluster.station176:A001 -p 10.1.1.176 -u
Logging out of session [sid: 33, target: iqn.2011-11.com.cluster.station176:A001, portal: 10.1.1.176,3260]
Logout of [sid: 33, target: iqn.2011-11.com.cluster.station176:A001, portal: 10.1.1.176,3260] successful.

[root@station109 ~]# iscsiadm -m node -o delete -T iqn.2011-11.com.cluster.station176:A001 -p 10.1.1.176
 
6.删除/var/lib/iscsi/*的所有文件,否则客户端电脑重启时会自动挂载网络磁盘,导致开机很慢
[root@station176 ~]# rm -rf /var/lib/iscsi/*

设置允许访问和使用共享磁盘的ip
[root@station176 ~]# tgtadm  --lld iscsi --op bind --mode target --tid 1 --initiator-address=ALL

这些配置方法知识临时的,若是想保存iscsi配置
vi /etc/tgt/targets.conf
<target iqn.2011-11.com.cluster.station176:A001>
        backing-store /dev/mapper/myvg-mylv     LUN1
        initiator-address  10.1.1.0/24
</target>

客户端若是想开机直接挂载网络硬盘
推荐放入 /etc/rc.d/init.d/     某个服务脚本
vi /etc/rc.d/init.d/sysstat (可以自己选择)
#--------iscsi-----------
/sbin/lvm vgchange -a y --sysinit > /dev/null 2>&1
mount -a

设置访问权限,需要用户名和密码
vim /etc/tgt/targets.conf
<target iqn.2011-11.com.cluster.station176:A001>
        backing-store /dev/mapper/myvg-mylv     LUN1
        initiator-address  10.1.1.0/24
        incoming username password

vi /etc/iscsi/iscsid.conf (chap) <- 密码
node.session.auth.authmethod = CHAP
node.session.auth.username = tt
node.session.auth.password = pass123
discovery.sendtargets.auth.authmethod = CHAP
discovery.sendtargets.auth.username = tt
discovery.sendtargets.auth.password = pass123
重启服务可生效

转载于:https://blog.51cto.com/kaixin1998/707617

RAID及LVM,iscsi相关推荐

  1. CentOS 5.2+Raid 0+LVM+ISCSI配置详解

    为什么80%的码农都做不了架构师?>>>    http://9iu.org/2011/12/08/centos_lvm_iscsi.html 转载于:https://my.osch ...

  2. 服务器软RAID和LVM的实现

    服务器软RAID和LVM的实现 Linux存储模式: 应用程序数据 <---gedit,vim等 虚拟文件系统  <---系统对下层抽象,对上层提供统一接口 文件系统驱动 <---e ...

  3. Linux技术研究-基础篇(raid与LVM,配额)

    Linux技术研究-基础篇(raid与LVM,配额) 创建RAID-5 若想建立新的md1设备 只在/dev下建立还不够 重启后会消失 固化的方法是 为了使udev自动产生/dev/md1, /dev ...

  4. linux 权限管理 lvm,Linux系统中RAID及LVM管理

    本节索引 一.RAID概念及管理 二.LVM逻辑卷的介绍及使用 Linux系统中如何提高磁盘的读写性能,如何实现磁盘冗余,当磁盘快被占满时,又如何弹性拓展磁盘容量,RAID及LVM技术可以帮你轻松解决 ...

  5. RAID和LVM介绍、练习

    RAID和LVM RAID RAID分类: 常见的RAID级别: RAID涉及到的文件和命令: LVM 1.LVM相关知识 2.LVM部署中涉及到的命令 练习: RAID练习: LVM练习: RAID ...

  6. 第六章 使用RAID与LVM磁盘阵列技术

    文章目录 第六章 使用RAID与LVM磁盘阵列技术 一.RAID磁盘冗余阵列 1.部署磁盘阵列 (1).RAID0.1.5.10方案技术对比 (2).RAID0 RAID1 RAID5 RAID10介 ...

  7. oracle linux zfs,RAID、LVM与ZFS的介绍

    在本文章中,我们将讨论RAID.逻辑卷管理器(LVM)与ZFS技术,我们将介绍他们在实施中做得最​​好的一面,并检查他们的差异.我希望你就这三种技术有一个良好的基础,可以选择一个适合你项目的技术. 1 ...

  8. 《linux就该这么学——笔记》第7章 使用RAID与LVM磁盘阵列技术

    使用RAID与LVM磁盘阵列技术 7.1 RAID(独立冗余磁盘阵列) 7.1.1 RAID0 7.1.2 RAID1 7.1.3 RAID5 7.1.4 RAID1 0 7.1.5 部署磁盘阵列(实 ...

  9. 阵列卡直通模式和raid模式_linux入门系列13--磁盘管理之RAID、LVM技术

    前一篇文章学习了磁盘分区.格式化.挂载等相关知识,本文将讲解RAID和LVM技术. 磁盘管理操作主要是运维人员用的较多,如果只是单纯的开发人员,可以先略过本文.但是在很多小公司里往往都是一人多用,运维 ...

  10. OpenStack高可用 -- 本地文件系统规划,Raid与LVM ( by quqi99 )

    OpenStack高可用 -- 本地文件系统规划,Raid与LVM ( by quqi99 ) 作者:张华  发表于:2013-07-21 版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始 ...

最新文章

  1. 组策略的优先级是 本地》站点》域》组织单位
  2. 《sql必知必会》读书笔记
  3. ArcGIS符号异常问题
  4. python绘图函数m_python绘图数据m
  5. java date显示格式_Java如何显示不同格式的日期?
  6. Servlet 工程 web.xml 中的 servlet 和 servlet-mapping 标签
  7. ubuntu上安装 ibus Google拼音输入法
  8. 洛谷P1879 [USACO06NOV]玉米田Corn Fields
  9. SQL查询语句,怎样查询重复数据
  10. xstream不映射字段_XStream序列化与反序列化对象
  11. python机械数据分析_记一次小机器的 Python 大数据分析
  12. 热门文献|陈国生:实证化中医基础理论依据及应用
  13. 极简 ssh之 scp
  14. http://blog.csdn.net/jame_peng
  15. PMBOK第六版(中文)
  16. 绿色自适应网址发布页源码
  17. 仿写小米商城简单页面案例
  18. Android除法运算,保留小数
  19. 硬盘数据恢复的方法有哪些?这五种恢复方法你知道吗
  20. 木马下载器Trojan-Downloader.Win32.Small.nkb

热门文章

  1. RocketMQ事务消息从生产到消费原理详解(包括回查过程)
  2. php查询排序,php如何对查询结果集进行排序
  3. gin源码解析(1) - gin 与 net/http 的关系
  4. java设置首页跳转_SpringBoot设置首页(默认页)跳转功能的实现方案
  5. svn ignore 的用法
  6. 输入输出流——字符流部分
  7. Java 联系Oracle 数据库
  8. 没事做贴个代码,判断是否素数,顺便打个素数表(非原创)。
  9. Redis在项目中的地位及使用场景剖析
  10. 如何将word表结构转换为excel表格,最终转换为PowerDesigner格式