mount: special device /dev/vgdata/lv_ora does not exist,centos系统LV status状态为Not avaliable问题排查及处理
文章目录
- 问题描述
- 系统重装后lv空间再挂载流程
- 系统重装前的挂载信息
- 系统重装后处理流程
- 系统重装重新挂载外挂盘后的情况【lsblk和lvdisplay命令说明】
- 状态为NOT available处理
- lsblk和lvdisplay验证
- 正常挂载
- 系统重装后swap分区挂载
- swap分区信息查看
- swap挂载
- 验证
问题描述
我们云上有一个虚拟机资源,虚拟机有一个外挂盘。
- 已经对虚拟机的外挂盘化好lv分区和挂载并记录挂载信息【没有写到fstab】
- 现虚拟机系统重装,导致
lsblk
看不到lv分区信息,lvdisplay
看到的LV status状态为NOT available【简单来说就是lv不可用了】 - 所以现在需要处理上面的问题。
另外一个问题是swap空间重装系统后再挂载【这个简单】。
处理过程如下。
系统重装后lv空间再挂载流程
系统重装前的挂载信息
- 资源分配时,划分的外挂盘,做好分区是这个样子的【lsblk看到的信息】
系统重装后处理流程
系统重装重新挂载外挂盘后的情况【lsblk和lvdisplay命令说明】
- 当系统重装后,重新挂载外挂盘发现lsblk看不到上图中的lv分区信息了。
- 因为我这个系统是最小化安装的,所以并不支持lvm命令,需要安装lvm2,然后就可以看到之前的分区信息了
安装前需要先配置yum源:yum -y install lvm2
[root@xz-ras-data yum.repos.d]# yum -y install lvm2
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
Resolving Dependencies
--> Running transaction check
。。。大量输出
Complete!
[root@xz-ras-data yum.repos.d]# lsblk # 重装后vdb2看不到lv分区属于不正常现象
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sr0 11:0 1 478K 0 rom
vda 253:0 0 300G 0 disk
└─vda1 253:1 0 300G 0 part /
vdb 253:16 0 1.5T 0 disk
├─vdb1 253:17 0 32G 0 part [SWAP]
└─vdb2 253:18 0 1.5T 0 part
loop0 7:0 0 4.4G 0 loop /centos
[root@xz-ras-data yum.repos.d]#
[root@xz-ras-data yum.repos.d]# vgsVG #PV #LV #SN Attr VSize VFree vgdata 1 5 0 wz--n- <1.47t <8.00g
[root@xz-ras-data yum.repos.d]#
[root@xz-ras-data yum.repos.d]# lvs # 这可以看到 那就证明分区还在。LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convertlv_arch vgdata -wi------- 140.00g lv_bank_files vgdata -wi------- 120.00g lv_boss_files vgdata -wi------- 150.00g lv_data vgdata -wi------- 1000.00g lv_ora vgdata -wi------- 86.00g
[root@xz-ras-data yum.repos.d]#
- 执行lvdisplay可以看到每个分区的详细路径。
注意,此时全部lv分区的LV status
的状态为NOT available
是不正常的,也用不了。
[root@xz-ras-data yum.repos.d]# lvdisplay --- Logical volume ---LV Path /dev/vgdata/lv_oraLV Name lv_oraVG Name vgdataLV UUID KPhJPH-gFCr-ryB1-6NT0-d7M7-I3Ie-I99SgyLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:24:33 +0000LV Status NOT availableLV Size 86.00 GiBCurrent LE 22016Segments 1Allocation inheritRead ahead sectors auto--- Logical volume ---LV Path /dev/vgdata/lv_boss_filesLV Name lv_boss_filesVG Name vgdataLV UUID NQtu3d-hES9-vGPu-NIJb-XybO-1K9S-tGDolQLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:00 +0000LV Status NOT availableLV Size 150.00 GiBCurrent LE 38400Segments 1Allocation inheritRead ahead sectors auto--- Logical volume ---LV Path /dev/vgdata/lv_dataLV Name lv_dataVG Name vgdataLV UUID zgH6f8-Bxof-Cw9X-Ihlu-ePzf-o5DV-ewAmznLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:14 +0000LV Status NOT availableLV Size 1000.00 GiBCurrent LE 256000Segments 1Allocation inheritRead ahead sectors auto--- Logical volume ---LV Path /dev/vgdata/lv_archLV Name lv_archVG Name vgdataLV UUID G5fcJ2-KMgf-GaCK-ltCk-QFNR-q3tx-pevt1BLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:32 +0000LV Status NOT availableLV Size 140.00 GiBCurrent LE 35840Segments 1Allocation inheritRead ahead sectors auto--- Logical volume ---LV Path /dev/vgdata/lv_bank_filesLV Name lv_bank_filesVG Name vgdataLV UUID n1jVOQ-7ToG-W1ML-B1uH-rcOz-chiR-TczjZHLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:47 +0000LV Status NOT availableLV Size 120.00 GiBCurrent LE 30720Segments 1Allocation inheritRead ahead sectors auto[root@xz-ras-data yum.repos.d]#
状态为NOT available处理
- 其实重装后状态错误就是因为
/dev/mapper/
中的软连接没了,我们就手动激活这个lv,让系统自动生成lv软连接罢了
如下是我手动激活后的软连接信息,你系统重装后出现上面问题,是看不到下面软连接的。
[root@xz-ras-data ~]# cd /dev/mapper/
[root@xz-ras-data mapper]# ll
total 0
crw-------. 1 root root 10, 236 Jul 8 01:40 control
lrwxrwxrwx. 1 root root 7 Jul 8 02:05 vgdata-lv_arch -> ../dm-3
lrwxrwxrwx. 1 root root 7 Jul 8 02:05 vgdata-lv_bank_files -> ../dm-4
lrwxrwxrwx. 1 root root 7 Jul 8 02:05 vgdata-lv_boss_files -> ../dm-1
lrwxrwxrwx. 1 root root 7 Jul 8 02:05 vgdata-lv_data -> ../dm-2
lrwxrwxrwx. 1 root root 7 Jul 8 02:05 vgdata-lv_ora -> ../dm-0
[root@xz-ras-data mapper]#
- 手动激活命令:
vgchange -ay
【这个命令一般都会执行成功的,如果手动激活不得行,那么就得手动创建软连接,那工作量可就大了】
如下正常激活提示信息
[root@xz-ras-data yum.repos.d]# vgchange -ay5 logical volume(s) in volume group "vgdata" now active
[root@xz-ras-data yum.repos.d]#
lsblk和lvdisplay验证
注意看代码后面注释说明
[root@xz-ras-data yum.repos.d]# lsblk # 如下,现在可以看到vdb下面的lv信息了
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sr0 11:0 1 478K 0 rom
vda 253:0 0 300G 0 disk
└─vda1 253:1 0 300G 0 part /
vdb 253:16 0 1.5T 0 disk
├─vdb1 253:17 0 32G 0 part [SWAP]
└─vdb2 253:18 0 1.5T 0 part ├─vgdata-lv_ora 252:0 0 86G 0 lvm ├─vgdata-lv_boss_files 252:1 0 150G 0 lvm ├─vgdata-lv_data 252:2 0 1000G 0 lvm ├─vgdata-lv_arch 252:3 0 140G 0 lvm └─vgdata-lv_bank_files 252:4 0 120G 0 lvm
loop0 7:0 0 4.4G 0 loop /centos
[root@xz-ras-data yum.repos.d]#
[root@xz-ras-data yum.repos.d]# lvdisplay # 可以看到下面所有lv的 LV Status状态为available了--- Logical volume ---LV Path /dev/vgdata/lv_oraLV Name lv_oraVG Name vgdataLV UUID KPhJPH-gFCr-ryB1-6NT0-d7M7-I3Ie-I99SgyLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:24:33 +0000LV Status available# open 0LV Size 86.00 GiBCurrent LE 22016Segments 1Allocation inheritRead ahead sectors auto- currently set to 8192Block device 252:0--- Logical volume ---LV Path /dev/vgdata/lv_boss_filesLV Name lv_boss_filesVG Name vgdataLV UUID NQtu3d-hES9-vGPu-NIJb-XybO-1K9S-tGDolQLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:00 +0000LV Status available# open 0LV Size 150.00 GiBCurrent LE 38400Segments 1Allocation inheritRead ahead sectors auto- currently set to 8192Block device 252:1--- Logical volume ---LV Path /dev/vgdata/lv_dataLV Name lv_dataVG Name vgdataLV UUID zgH6f8-Bxof-Cw9X-Ihlu-ePzf-o5DV-ewAmznLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:14 +0000LV Status available# open 0LV Size 1000.00 GiBCurrent LE 256000Segments 1Allocation inheritRead ahead sectors auto- currently set to 8192Block device 252:2--- Logical volume ---LV Path /dev/vgdata/lv_archLV Name lv_archVG Name vgdataLV UUID G5fcJ2-KMgf-GaCK-ltCk-QFNR-q3tx-pevt1BLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:32 +0000LV Status available# open 0LV Size 140.00 GiBCurrent LE 35840Segments 1Allocation inheritRead ahead sectors auto- currently set to 8192Block device 252:3--- Logical volume ---LV Path /dev/vgdata/lv_bank_filesLV Name lv_bank_filesVG Name vgdataLV UUID n1jVOQ-7ToG-W1ML-B1uH-rcOz-chiR-TczjZHLV Write Access read/writeLV Creation host, time xz-ras-data.novalocal, 2022-06-22 09:25:47 +0000LV Status available# open 0LV Size 120.00 GiBCurrent LE 30720Segments 1Allocation inheritRead ahead sectors auto- currently set to 8192Block device 252:4[root@xz-ras-data yum.repos.d]#
正常挂载
- 然后对照之前的挂在路径创建文件挂载即可
下图为第一次挂载信息
- 现在重头挂载呢需要重创建挂载路径开始
[root@xz-ras-data yum.repos.d]# mkdir /ora
[root@xz-ras-data yum.repos.d]# mkdir /boss_files
[root@xz-ras-data yum.repos.d]# mkdir /data
[root@xz-ras-data yum.repos.d]# mkdir /arch
[root@xz-ras-data yum.repos.d]# mkdir /bank_files
[root@xz-ras-data yum.repos.d]#
- 然后开始依次挂载【可以看到这次的挂载信息和第一次的挂载信息有区别,属于正常现象】
注:mount 后面的lv路径以lvdisplay
中看到的为准。
[root@xz-ras-data yum.repos.d]# mount /dev/vgdata/lv_ora /ora
[root@xz-ras-data yum.repos.d]# mount /dev/vgdata/lv_boss_files /boss_files/
[root@xz-ras-data yum.repos.d]# mount /dev/vgdata/lv_data /data/
[root@xz-ras-data yum.repos.d]# mount /dev/vgdata/lv_arch /arch/
[root@xz-ras-data yum.repos.d]# mount /dev/vgdata/lv_bank_files /bank_files/
[root@xz-ras-data yum.repos.d]#
- 挂载完毕以后查看挂载信息【此时可以看到挂载路径多了个mapper了,属于正常现象】
[root@xz-ras-data yum.repos.d]# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 16G 0 16G 0% /dev
tmpfs tmpfs 16G 0 16G 0% /dev/shm
tmpfs tmpfs 16G 25M 16G 1% /run
tmpfs tmpfs 16G 0 16G 0% /sys/fs/cgroup
/dev/vda1 xfs 300G 5.3G 295G 2% /
tmpfs tmpfs 3.2G 0 3.2G 0% /run/user/0
/dev/loop0 iso9660 4.4G 4.4G 0 100% /centos
/dev/mapper/vgdata-lv_ora xfs 86G 3.9G 83G 5% /ora
/dev/mapper/vgdata-lv_boss_files xfs 150G 33M 150G 1% /boss_files
/dev/mapper/vgdata-lv_data xfs 1000G 33M 1000G 1% /data
/dev/mapper/vgdata-lv_arch xfs 140G 33M 140G 1% /arch
/dev/mapper/vgdata-lv_bank_files xfs 120G 33M 120G 1% /bank_files
[root@xz-ras-data yum.repos.d]#
- 数据验证
进入到之前有数据的任意目录,能看到内容则正常。
[root@xz-ras-data yum.repos.d]# cd /ora/
[root@xz-ras-data ora]# ls
enterprise.rsp product software
[root@xz-ras-data ora]#
系统重装后swap分区挂载
swap分区信息查看
- 系统重装之前我已经用外挂盘的空间划分好swap空间并挂载正常使用了
系统重装后swap分区肯定就没了,所以需要先确定自己的swap空间盘是哪个,然后确定该分区磁盘信息。 - 查看方式有2个
- 1、
lsblk
分区后面有个[SWAP]
- 2、
fdisk -l
分区信息后有个Linux swap / Solaris
- 查看这个的意义是为了确定分区磁盘信息,如下,得知,该swap磁盘是
/dev/vdb1
- 1、
[root@xz-ras-data ora]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sr0 11:0 1 478K 0 rom
vda 253:0 0 300G 0 disk
└─vda1 253:1 0 300G 0 part /
vdb 253:16 0 1.5T 0 disk
├─vdb1 253:17 0 32G 0 part [SWAP] # 如这
└─vdb2 253:18 0 1.5T 0 part ├─vgdata-lv_ora 252:0 0 86G 0 lvm /ora├─vgdata-lv_boss_files 252:1 0 150G 0 lvm /boss_files├─vgdata-lv_data 252:2 0 1000G 0 lvm /data├─vgdata-lv_arch 252:3 0 140G 0 lvm /arch└─vgdata-lv_bank_files 252:4 0 120G 0 lvm /bank_files
loop0 7:0 0 4.4G 0 loop /centos
[root@xz-ras-data ora]# fdisk -lDisk /dev/vda: 322.1 GB, 322122547200 bytes, 629145600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000940fdDevice Boot Start End Blocks Id System
/dev/vda1 * 2048 629145566 314571759+ 83 LinuxDisk /dev/vdb: 1649.3 GB, 1649267441664 bytes, 3221225472 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0xfcb78ee4Device Boot Start End Blocks Id System
/dev/vdb1 2048 67110911 33554432 82 Linux swap / Solaris # 如这
/dev/vdb2 67110912 3221225471 1577057280 8e Linux LVMDisk /dev/loop0: 4712 MB, 4712300544 bytes, 9203712 sectors
Units = sectors of 1 * 512 = 512 bytes
swap挂载
- swap挂载我们一般用永久挂载比较靠谱【避免重启后因swap没有自动挂载而导致程序出问题】
[root@xz-ras-data ora]# blkid # 复制swap磁盘的UUID【如这复制/dev/vdb2】
/dev/sr0: UUID="2022-07-07-17-25-26-00" LABEL="config-2" TYPE="iso9660"
/dev/vda1: UUID="6cd50e51-cfc6-40b9-9ec5-f32fa2e4ff02" TYPE="xfs"
/dev/vdb1: UUID="231504cf-fb09-4186-bf09-99c93ebde2b8" TYPE="swap"
/dev/vdb2: UUID="Uo5aNQ-qCLz-lGR1-0Akx-eDyD-iX5g-tiRdgB" TYPE="LVM2_member"
[root@xz-ras-data ora]# vi /etc/fstab # 编辑挂载文件
[root@xz-ras-data ora]# tail -n1 /etc/fstab # 写入如下信息【UUID是上面复制的哈,其他不变】
UUID=231504cf-fb09-4186-bf09-99c93ebde2b8 swap swap defaults 0 0
[root@xz-ras-data ora]#
[root@xz-ras-data ora]# swapon -a # 挂载 【必须用这个命令,如果报错了就是挂载文件编辑错误】
[root@xz-ras-data ora]#
验证
有swap空间了,则正常。
[root@xz-ras-data ora]# free -g total used free shared buff/cache available
Mem: 31 0 26 0 4 30
Swap: 31 0 31
[root@xz-ras-data ora]#
mount: special device /dev/vgdata/lv_ora does not exist,centos系统LV status状态为Not avaliable问题排查及处理相关推荐
- OpenStack虚拟机部署K8S集群,使用Cinder提供PV报错:mount: special device does not exist
1.出错信息 kubelet挂载pv卷失败,从出错信息来看失败原因是设备不存在 # kubectl describe pods testpvcpod-cinder Mounting command: ...
- Mount 挂载错误mount:block device /dev/sr0 is write – protected , mounting read-only
Mount 挂载错误mount:block device /dev/sr0 is write – protected , mounting read-only 安装虚拟机出现以下提示: mount:b ...
- mount: block device /dev/cdrom is write-protected, mounting read-only 解决方法
mount: block device /dev/cdrom is write-protected, mounting read-only 解决方法 参考文章: (1)mount: block dev ...
- linux虚拟机安装过程中卡在mount: block device /dev/sr0 is write-protected, mounting read-only
安装linux虚拟机过程中卡在了mount: block device /dev/sr0 is write-protected, mounting read-only不继续执行: 解决办法:在新建虚拟 ...
- mount:special device does not exist (a path prefix is not a directory)
使用mount的时候,提示错误:mount special device does not exist (a path prefix is not a directory)错误:正确写法: sudo ...
- The device ‘/dev/sdd1‘ doesn‘t seem to have a valid NTFS
挂载移动硬盘后,在系统中准备mount起来的,用 -t ntfs 时报错: The device '/dev/sdd1' doesn't seem to have a valid NTFS Disk ...
- 问题解决:pvcreate过程中错误Device /dev/sdb not found (or ignored by filtering)
在pvcreate创建物理卷时出错:Device /dev/sdb not found.我的报错情况没有(or ignored by filtering), 原因说明:显然,在/dev/目录下应该是要 ...
- pvcreate出现错误:Device /dev/sdb1 not found (or ignored by filtering).
错误信息: [root@compute2 ~]# pvcreate -vvv /dev/sdb1 -- Device /dev/sdb1 not found (or ignored by filter ...
- SYMBDSNAP_SDK[3943]: Failed to open device: /dev/symbdsnapctl, errno: 2
在Linux的日志/var/log/message里面看到下面错误信息: Oct 26 09:48:42 xxxxxxx SYMBDSNAP_SDK[3943]: Failed to open dev ...
最新文章
- shocked的歌曲 类似shell_Wiz Khalifa - Shell Shocked[FLAC格式]
- AJAX:Getting Started
- Tableau系列之与R语言结合
- TextBox字符串转换为数字类型
- java 多线程原理(一)
- leetcode1. 两数之和(两种方法)
- word List 08
- 百度开发平台提交应用后进行官方认证审核失败?
- 参数估计_状态估计的基本概念(1)参数估计问题
- 942.ava.com_如何使用Ava.js测试Node.js应用程序
- RESTful WebServices Cookbook中文版
- 推流至Wowza服务器要注意的问题
- 互联网思维心得体会1500字_互联网思维心得分享
- 手把手教您:iOS 6.1~6.12 完美越狱教程
- 一文带你了解身份证实名认证类api接口
- ajax中xhr监听,在firefox插件中监听http响应时确定XHR(ajax)响应
- Linux教程shell篇——黑马课程笔记
- 浅谈APP运营推广:该如何的精准投放广告?
- 程序员开发了自己的产品怎样推广?说一说我的免费在线客服系统推广经验
- OpenCV读取显示图片报错size.width>0