hp ilo 服务器 hpssacli 做 raid
环境: hp ilo4 DL380 Gen9,ilo 页面检测到磁盘 degrade,但是操作系统 centos7 中显示磁盘(做过 raid 后的逻辑盘)正常。更换磁盘后,系统显示不出新的磁盘符 /dev/sdx,需要手动重启操作系统, 做 raid
目的:不停机,直接使用 hpssacli 做 raid0
需要提前删除更换的 ceph osd 对应的 lv、pv、vg
1、不重新对更换后的磁盘做 raid,系统显示不出更换后的磁盘设备
[root@cmp21 osd]# lsblk -d
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 558.9G 0 disk
sdb 8:16 0 1.7T 0 disk
sdc 8:32 0 1.7T 0 disk
sdd 8:48 0 1.7T 0 disk
sde 8:64 0 1.7T 0 disk
sdf 8:80 0 1.7T 0 disk
sdg 8:96 0 1.7T 0 disk
sdh 8:112 0 1.7T 0 disk
sdi 8:128 0 1.7T 0 disk
sdk 8:160 0 1.7T 0 disk
sdl 8:176 0 1.7T 0 disk
sdm 8:192 0 1.7T 0 disk
sdn 8:208 0 1.7T 0 disk
sdo 8:224 0 1.7T 0 disk
sdp 8:240 0 1.7T 0 disk
sdq 65:0 0 1.7T 0 disk
sdr 65:16 0 1.7T 0 disk
sds 65:32 0 1.7T 0 disk
sdt 65:48 0 1.7T 0 disk
sdu 65:64 0 1.7T 0 disk
缺少 /dev/sdj
2、使用 hpssacli 检查逻辑盘,发现 logicaldrive 10 failed
[root@cmp21 osd]# hpssacli ctrl slot=0 ld all show statuslogicaldrive 1 (558.9 GB, 1): OKlogicaldrive 2 (1.6 TB, 0): OKlogicaldrive 3 (1.6 TB, 0): OKlogicaldrive 4 (1.6 TB, 0): OKlogicaldrive 5 (1.6 TB, 0): OKlogicaldrive 6 (1.6 TB, 0): OKlogicaldrive 7 (1.6 TB, 0): OKlogicaldrive 8 (1.6 TB, 0): OKlogicaldrive 9 (1.6 TB, 0): OKlogicaldrive 10 (1.6 TB, 0): Failedlogicaldrive 11 (1.6 TB, 0): OKlogicaldrive 12 (1.6 TB, 0): OKlogicaldrive 13 (1.6 TB, 0): OKlogicaldrive 14 (1.6 TB, 0): OKlogicaldrive 15 (1.6 TB, 0): OKlogicaldrive 16 (1.6 TB, 0): OKlogicaldrive 17 (1.6 TB, 0): OKlogicaldrive 18 (1.6 TB, 0): OKlogicaldrive 19 (1.6 TB, 0): OKlogicaldrive 20 (1.6 TB, 0): OKlogicaldrive 21 (1.6 TB, 0): OK
而物理盘状态显示没有问题
[root@cmp21 osd]# hpssacli ctrl slot=0 pd all show statusphysicaldrive 1I:1:1 (port 1I:box 1:bay 1, 600 GB): OKphysicaldrive 1I:1:2 (port 1I:box 1:bay 2, 600 GB): OKphysicaldrive 1I:1:3 (port 1I:box 1:bay 3, 1800.3 GB): OKphysicaldrive 1I:1:4 (port 1I:box 1:bay 4, 1800.3 GB): OKphysicaldrive 1I:1:5 (port 1I:box 1:bay 5, 1800.3 GB): OKphysicaldrive 1I:1:6 (port 1I:box 1:bay 6, 1800.3 GB): OKphysicaldrive 1I:1:7 (port 1I:box 1:bay 7, 1800.3 GB): OKphysicaldrive 1I:1:8 (port 1I:box 1:bay 8, 1800.3 GB): OKphysicaldrive 1I:1:9 (port 1I:box 1:bay 9, 1800.3 GB): OKphysicaldrive 1I:1:10 (port 1I:box 1:bay 10, 1800.3 GB): OKphysicaldrive 1I:1:11 (port 1I:box 1:bay 11, 1800.3 GB): OKphysicaldrive 1I:1:12 (port 1I:box 1:bay 12, 1800.3 GB): OKphysicaldrive 1I:1:13 (port 1I:box 1:bay 13, 1800.3 GB): OKphysicaldrive 1I:1:14 (port 1I:box 1:bay 14, 1800.3 GB): OKphysicaldrive 1I:1:15 (port 1I:box 1:bay 15, 1800.3 GB): OKphysicaldrive 1I:1:16 (port 1I:box 1:bay 16, 1800.3 GB): OKphysicaldrive 1I:1:17 (port 1I:box 1:bay 17, 1800.3 GB): OKphysicaldrive 1I:1:18 (port 1I:box 1:bay 18, 1800.3 GB): OKphysicaldrive 1I:1:19 (port 1I:box 1:bay 19, 1800.3 GB): OKphysicaldrive 1I:1:20 (port 1I:box 1:bay 20, 1800.3 GB): OKphysicaldrive 1I:1:21 (port 1I:box 1:bay 21, 1800.3 GB): OKphysicaldrive 1I:1:22 (port 1I:box 1:bay 22, 1800.3 GB): OK
3、删除 logicaldrive 10
[root@cmp21 osd]# hpssacli ctrl slot=0 ld 10 deleteWarning: Deleting an array can cause other array letters to become renamed.E.g. Deleting array A from arrays A,B,C will result in two remainingarrays A,B ... not B,CWarning: Deleting the specified device(s) will result in data being lost.Continue? (y/n) y
4、重新创建 raid0
[root@cmp21 osd]# hpssacli ctrl slot=0 create type=ld drives=1I:1:11 raid=0Warning: Creation of this logical drive has caused array letters to becomerenamed.
5、查看系统磁盘信息
[root@cmp21 osd]# lsblk -d
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 558.9G 0 disk
sdb 8:16 0 1.7T 0 disk
sdc 8:32 0 1.7T 0 disk
sdd 8:48 0 1.7T 0 disk
sde 8:64 0 1.7T 0 disk
sdf 8:80 0 1.7T 0 disk
sdg 8:96 0 1.7T 0 disk
sdh 8:112 0 1.7T 0 disk
sdi 8:128 0 1.7T 0 disk
sdj 8:144 0 1.7T 0 disk
sdk 8:160 0 1.7T 0 disk
sdl 8:176 0 1.7T 0 disk
sdm 8:192 0 1.7T 0 disk
sdn 8:208 0 1.7T 0 disk
sdo 8:224 0 1.7T 0 disk
sdp 8:240 0 1.7T 0 disk
sdq 65:0 0 1.7T 0 disk
sdr 65:16 0 1.7T 0 disk
sds 65:32 0 1.7T 0 disk
sdt 65:48 0 1.7T 0 disk
sdu 65:64 0 1.7T 0 disk
注意事项:
需要提前删除更换的 ceph osd 对应的 lv、pv、vg,否则磁盘符会增加,不会恢复到原来的磁盘符
[root@cmp13 ~]# lsblk -d
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 558.9G 0 disk
sdb 8:16 0 1.7T 0 disk
sdc 8:32 0 1.7T 0 disk
sdd 8:48 0 1.7T 0 disk
sde 8:64 0 1.7T 0 disk
sdf 8:80 0 1.7T 0 disk
sdg 8:96 0 1.7T 0 disk
sdh 8:112 0 1.7T 0 disk
sdi 8:128 0 1.7T 0 disk
sdj 8:144 0 1.7T 0 disk
sdk 8:160 0 1.7T 0 disk
sdl 8:176 0 1.7T 0 disk
sdm 8:192 0 1.7T 0 disk
sdn 8:208 0 1.7T 0 disk
sdo 8:224 0 1.7T 0 disk
sdp 8:240 0 1.7T 0 disk
sdq 65:0 0 1.7T 0 disk
sds 65:32 0 1.7T 0 disk
sdt 65:48 0 1.7T 0 disk
sdu 65:64 0 1.7T 0 disk
sdv 65:80 0 1.7T 0 disk
这时使用 hpssacli 清除 ld,再重新创建 ld,新的磁盘符不会出现,还会出现 multiple uuid 错误,pvscan --cache 会报错
pvs
pvscan --cache
hpssacli 清除 ld
hpssacli ctrl slot=0 ld x delete
刷新磁盘管理
echo "- - -" > /sys/class/scsi_host/hostx/scan
清除 /dev/sdv
echo 1 > /sys/block/sdx/device/delete
清除错误 Error reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 0 length 512.
[root@cmp13 ~]# pvsError reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 0 length 512.Error reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 0 length 4.Error reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 4096 length 4.PV VG Fmt Attr PSize PFree/dev/sdb ceph-8fb04441-4899-4470-979f-b82319df1c04 lvm2 a-- <1.64t 0 /dev/sdc ceph-dea3360a-dea5-45fd-918b-86b530750d51 lvm2 a-- <1.64t 0 /dev/sdd ceph-91a54c77-1d74-4c7a-96c7-d97cda9ce269 lvm2 a-- <1.64t 0 /dev/sde ceph-76e9dd42-35ac-426d-9733-1c123be18a4c lvm2 a-- <1.64t 0 /dev/sdf ceph-d8ed0ac2-07e2-47ca-8be2-2517064336fe lvm2 a-- <1.64t 0 /dev/sdg ceph-f82bd637-daf2-4ad2-9660-95df9b1dfca9 lvm2 a-- <1.64t 0 /dev/sdh ceph-c688cfe8-0488-4646-942c-bba590eb01c5 lvm2 a-- <1.64t 0 /dev/sdi ceph-70ae3747-d758-4b28-973f-0acd2d21e6b2 lvm2 a-- <1.64t 0 /dev/sdj ceph-44c4d98f-1940-4d9f-b132-3fdf5178233c lvm2 a-- <1.64t 0/dev/sdk ceph-a1b13b3b-b8d7-40d4-b7d4-ca5174adb012 lvm2 a-- <1.64t 0 /dev/sdl ceph-2f15820c-0e12-4518-a103-26bd3ee35d4e lvm2 a-- <1.64t 0 /dev/sdm ceph-ed5d6897-d93c-4037-a3e8-5a7fce070ba8 lvm2 a-- <1.64t 0 /dev/sdn ceph-b8502c37-69b9-45a9-bbaf-d29d6d322d991 lvm2 a-- <1.64t 0 /dev/sdo ceph-6968d0c9-6b29-4457-8e08-b292324675f4 lvm2 a-- <1.64t 0 /dev/sdp ceph-a102a5f5-a59e-4dd0-9c88-8c721603af6e lvm2 a-- <1.64t 0 /dev/sdq ceph-49543ed2-4b3e-43d9-aa25-7693ded3c898 lvm2 a-- <1.64t 0 /dev/sds ceph-15fb9166-e800-4556-bfee-4a97b7f598b5 lvm2 a-- <1.64t 0 /dev/sdt ceph-f7f0916c-385d-4f41-a041-0009d914bd0e lvm2 a-- <1.64t 0 /dev/sdu ceph-42315175-e55c-4bc3-8db6-c184986f28b4 lvm2 a-- <1.64t 0
[root@cmp13 ~]# dmsetup remove /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135
参考文章:
17 hpacucli Command Examples for Linux on HP Servers
Opening the CLI in Console mode
Physically removed a disk before deactivating volume group and can’t get LVM to stop printing errors about it
Linux 不重启扫描存储磁盘
hp ilo 服务器 hpssacli 做 raid相关推荐
- 云服务器怎么做raid,深入剖析—服务器应该做RAID几?
1.通过把多个磁盘组织在一起作为一个逻辑卷提供磁盘跨越功能 2.通过把数据分成多个数据块(Block)并行写入/读出多个磁盘以提高访问磁盘的速度 3.通过镜像或校验操作提供容错能力 根据实际情况选择适 ...
- 惠普g7服务器硬盘阵列,HP DL388 G7 服务器重新做RAID
HP DL388 G7 服务器做RAID 时间:20190626 介绍: 因为工作需求需要将新来的服务器的硬盘做一些调整,需要重新做RAID. 首先在调整完各个服务器的硬盘数量,分配好之后重启服务器. ...
- 戴尔服务器阵列装系统,戴尔服务器R720做Raid 0并安装VMware ESXi 6.7系统方法
前言⚠️ 我这台服务器的作用是用来当测试服务器的,数据存储量不大并且对数据安全性要求不高,所以做的Raid 0,如果你对数据安全要求性高的话建议做Raid 5或者Raid 1! RAID卡配置涉及的一 ...
- Dell服务器如何做raid
创建Raid0与Raid5的方式是一样的,下列步骤以创建Raid5为例. 1.重启服务器,点按F11,在启动界面注意观察,有RAID项,且有Ctrl+R:之后点按Ctrl+R,便进入了配置界面,如图: ...
- 华为服务器RH2288做raid方法
1 开机根据屏幕提示按ctrl+R进入raid设置界面 2 光标移动到sas3108(bus 0x01-)上按F2(类似鼠标右件功能),创建如下图 3 选择raid等级,这里采用raid5,然后使用t ...
- 服务器组装raid,服务器怎样做(RAID 1或RAID 0 ) 和安装时具体设定
RAID1的制作 1. 物理联接:二个硬盘都要跳成主盘分别用数据线(最好是RAID卡自带的)接到RAID卡的IDE1.IDE2上, 2. 接好并插到服务器上开机会检测到RAID卡的状态的,出现&quo ...
- HP服务器做raid
HP服务器做RAID方法 HP服务器RAID配置 HP服务器做RAID方法: 自检完成按esc,接着再自检,当出现p400或者p600,按f8,默认2块盘是RAID1,因为服务器必须做RAID,要想不 ...
- 浪潮NF5280M5服务器做RAID装windows server2019系统保姆级教学
新项目把原来的联想服务器换成了浪潮的,并且开机之后一直没有进系统,咨询厂家原来是购买机器的时候没有购买服务器系统,需要自己装系统,之前都是给工作站笔记本什么的装系统,使用PE直接一键安装在服务器行不台 ...
- 惠普服务器G8系列做raid,hp g8服务器设置raid5
hp g8服务器设置raid5 内容精选 换一换 扩容成功后,对于linux操作系统而言,需要将扩容部分的容量划分至原有分区内,或者为扩容部分的磁盘分配新的分区.本文以"CentOS 7.0 ...
最新文章
- OpenResty 最佳实践
- go io.reader 多次读取_Go 语言进阶:freecache 源码学习(1)
- 为什么在把多维数组传递给函数时必须要指定除第一维之外的其他维
- 域名解析对网站SEO优化有何影响?
- 学写网站(一)前端配置之安装nvm、node、npm
- oracle高级查询案例,oracle高级查询(实例基于scott用户四张表)
- JS数据结构学习之排序
- JAVA复合判断_一起来学Java8(四)——复合Lambda
- CSS基础——定位 (position)【学习笔记】
- ERROR 1045 (28000): Access denied for user 'backup'@'mysql' (using password: YES)
- “21天好习惯”第一期-10
- hdu acm2309
- 软件加密狗破解思路和防破解的博弈之路
- spring boot小说网站系统 毕业设计源码论文+答辩PPT
- vba批量合并指定的sheet_用VBA实现把多个Excel文件合并到一个Excel文件的多个工作表(Sheet)里...
- 手机短信转发到另一个手机接收_我买了个能贴在手机上的显微镜,结果发现了另一个世界...
- Android 中的卡顿丢帧原因概述 - 低内存篇
- 立创梁山派GD32F450ZGT6--屏幕扩展板LVGL应用
- 视频怎么去水印和字幕
- 设计一个动物声音“模拟器”