环境: hp ilo4 DL380 Gen9,ilo 页面检测到磁盘 degrade,但是操作系统 centos7 中显示磁盘(做过 raid 后的逻辑盘)正常。更换磁盘后,系统显示不出新的磁盘符 /dev/sdx,需要手动重启操作系统, 做 raid

目的:不停机,直接使用 hpssacli 做 raid0

需要提前删除更换的 ceph osd 对应的 lv、pv、vg

1、不重新对更换后的磁盘做 raid,系统显示不出更换后的磁盘设备

[root@cmp21 osd]# lsblk -d
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 558.9G  0 disk
sdb    8:16   0   1.7T  0 disk
sdc    8:32   0   1.7T  0 disk
sdd    8:48   0   1.7T  0 disk
sde    8:64   0   1.7T  0 disk
sdf    8:80   0   1.7T  0 disk
sdg    8:96   0   1.7T  0 disk
sdh    8:112  0   1.7T  0 disk
sdi    8:128  0   1.7T  0 disk
sdk    8:160  0   1.7T  0 disk
sdl    8:176  0   1.7T  0 disk
sdm    8:192  0   1.7T  0 disk
sdn    8:208  0   1.7T  0 disk
sdo    8:224  0   1.7T  0 disk
sdp    8:240  0   1.7T  0 disk
sdq   65:0    0   1.7T  0 disk
sdr   65:16   0   1.7T  0 disk
sds   65:32   0   1.7T  0 disk
sdt   65:48   0   1.7T  0 disk
sdu   65:64   0   1.7T  0 disk

缺少 /dev/sdj

2、使用 hpssacli 检查逻辑盘,发现 logicaldrive 10 failed

[root@cmp21 osd]# hpssacli ctrl slot=0 ld all show statuslogicaldrive 1 (558.9 GB, 1): OKlogicaldrive 2 (1.6 TB, 0): OKlogicaldrive 3 (1.6 TB, 0): OKlogicaldrive 4 (1.6 TB, 0): OKlogicaldrive 5 (1.6 TB, 0): OKlogicaldrive 6 (1.6 TB, 0): OKlogicaldrive 7 (1.6 TB, 0): OKlogicaldrive 8 (1.6 TB, 0): OKlogicaldrive 9 (1.6 TB, 0): OKlogicaldrive 10 (1.6 TB, 0): Failedlogicaldrive 11 (1.6 TB, 0): OKlogicaldrive 12 (1.6 TB, 0): OKlogicaldrive 13 (1.6 TB, 0): OKlogicaldrive 14 (1.6 TB, 0): OKlogicaldrive 15 (1.6 TB, 0): OKlogicaldrive 16 (1.6 TB, 0): OKlogicaldrive 17 (1.6 TB, 0): OKlogicaldrive 18 (1.6 TB, 0): OKlogicaldrive 19 (1.6 TB, 0): OKlogicaldrive 20 (1.6 TB, 0): OKlogicaldrive 21 (1.6 TB, 0): OK

而物理盘状态显示没有问题

[root@cmp21 osd]# hpssacli ctrl slot=0 pd all show statusphysicaldrive 1I:1:1 (port 1I:box 1:bay 1, 600 GB): OKphysicaldrive 1I:1:2 (port 1I:box 1:bay 2, 600 GB): OKphysicaldrive 1I:1:3 (port 1I:box 1:bay 3, 1800.3 GB): OKphysicaldrive 1I:1:4 (port 1I:box 1:bay 4, 1800.3 GB): OKphysicaldrive 1I:1:5 (port 1I:box 1:bay 5, 1800.3 GB): OKphysicaldrive 1I:1:6 (port 1I:box 1:bay 6, 1800.3 GB): OKphysicaldrive 1I:1:7 (port 1I:box 1:bay 7, 1800.3 GB): OKphysicaldrive 1I:1:8 (port 1I:box 1:bay 8, 1800.3 GB): OKphysicaldrive 1I:1:9 (port 1I:box 1:bay 9, 1800.3 GB): OKphysicaldrive 1I:1:10 (port 1I:box 1:bay 10, 1800.3 GB): OKphysicaldrive 1I:1:11 (port 1I:box 1:bay 11, 1800.3 GB): OKphysicaldrive 1I:1:12 (port 1I:box 1:bay 12, 1800.3 GB): OKphysicaldrive 1I:1:13 (port 1I:box 1:bay 13, 1800.3 GB): OKphysicaldrive 1I:1:14 (port 1I:box 1:bay 14, 1800.3 GB): OKphysicaldrive 1I:1:15 (port 1I:box 1:bay 15, 1800.3 GB): OKphysicaldrive 1I:1:16 (port 1I:box 1:bay 16, 1800.3 GB): OKphysicaldrive 1I:1:17 (port 1I:box 1:bay 17, 1800.3 GB): OKphysicaldrive 1I:1:18 (port 1I:box 1:bay 18, 1800.3 GB): OKphysicaldrive 1I:1:19 (port 1I:box 1:bay 19, 1800.3 GB): OKphysicaldrive 1I:1:20 (port 1I:box 1:bay 20, 1800.3 GB): OKphysicaldrive 1I:1:21 (port 1I:box 1:bay 21, 1800.3 GB): OKphysicaldrive 1I:1:22 (port 1I:box 1:bay 22, 1800.3 GB): OK

3、删除 logicaldrive 10

[root@cmp21 osd]# hpssacli ctrl slot=0 ld 10 deleteWarning: Deleting an array can cause other array letters to become renamed.E.g. Deleting array A from arrays A,B,C will result in two remainingarrays A,B ... not B,CWarning: Deleting the specified device(s) will result in data being lost.Continue? (y/n) y

4、重新创建 raid0

[root@cmp21 osd]# hpssacli ctrl slot=0 create type=ld drives=1I:1:11 raid=0Warning: Creation of this logical drive has caused array letters to becomerenamed.

5、查看系统磁盘信息

[root@cmp21 osd]# lsblk -d
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 558.9G  0 disk
sdb    8:16   0   1.7T  0 disk
sdc    8:32   0   1.7T  0 disk
sdd    8:48   0   1.7T  0 disk
sde    8:64   0   1.7T  0 disk
sdf    8:80   0   1.7T  0 disk
sdg    8:96   0   1.7T  0 disk
sdh    8:112  0   1.7T  0 disk
sdi    8:128  0   1.7T  0 disk
sdj    8:144  0   1.7T  0 disk
sdk    8:160  0   1.7T  0 disk
sdl    8:176  0   1.7T  0 disk
sdm    8:192  0   1.7T  0 disk
sdn    8:208  0   1.7T  0 disk
sdo    8:224  0   1.7T  0 disk
sdp    8:240  0   1.7T  0 disk
sdq   65:0    0   1.7T  0 disk
sdr   65:16   0   1.7T  0 disk
sds   65:32   0   1.7T  0 disk
sdt   65:48   0   1.7T  0 disk
sdu   65:64   0   1.7T  0 disk

注意事项:
需要提前删除更换的 ceph osd 对应的 lv、pv、vg,否则磁盘符会增加,不会恢复到原来的磁盘符

[root@cmp13 ~]# lsblk -d
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 558.9G  0 disk
sdb    8:16   0   1.7T  0 disk
sdc    8:32   0   1.7T  0 disk
sdd    8:48   0   1.7T  0 disk
sde    8:64   0   1.7T  0 disk
sdf    8:80   0   1.7T  0 disk
sdg    8:96   0   1.7T  0 disk
sdh    8:112  0   1.7T  0 disk
sdi    8:128  0   1.7T  0 disk
sdj    8:144  0   1.7T  0 disk
sdk    8:160  0   1.7T  0 disk
sdl    8:176  0   1.7T  0 disk
sdm    8:192  0   1.7T  0 disk
sdn    8:208  0   1.7T  0 disk
sdo    8:224  0   1.7T  0 disk
sdp    8:240  0   1.7T  0 disk
sdq   65:0    0   1.7T  0 disk
sds   65:32   0   1.7T  0 disk
sdt   65:48   0   1.7T  0 disk
sdu   65:64   0   1.7T  0 disk
sdv   65:80   0   1.7T  0 disk

这时使用 hpssacli 清除 ld,再重新创建 ld,新的磁盘符不会出现,还会出现 multiple uuid 错误,pvscan --cache 会报错

pvs
pvscan --cache

hpssacli 清除 ld

hpssacli ctrl slot=0 ld x delete

刷新磁盘管理

echo "- - -" > /sys/class/scsi_host/hostx/scan

清除 /dev/sdv

echo 1 > /sys/block/sdx/device/delete

清除错误 Error reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 0 length 512.

[root@cmp13 ~]# pvsError reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 0 length 512.Error reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 0 length 4.Error reading device /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135 at 4096 length 4.PV         VG                                         Fmt  Attr PSize  PFree/dev/sdb   ceph-8fb04441-4899-4470-979f-b82319df1c04  lvm2 a--  <1.64t    0 /dev/sdc   ceph-dea3360a-dea5-45fd-918b-86b530750d51  lvm2 a--  <1.64t    0 /dev/sdd   ceph-91a54c77-1d74-4c7a-96c7-d97cda9ce269  lvm2 a--  <1.64t    0 /dev/sde   ceph-76e9dd42-35ac-426d-9733-1c123be18a4c  lvm2 a--  <1.64t    0 /dev/sdf   ceph-d8ed0ac2-07e2-47ca-8be2-2517064336fe  lvm2 a--  <1.64t    0 /dev/sdg   ceph-f82bd637-daf2-4ad2-9660-95df9b1dfca9  lvm2 a--  <1.64t    0 /dev/sdh   ceph-c688cfe8-0488-4646-942c-bba590eb01c5  lvm2 a--  <1.64t    0 /dev/sdi   ceph-70ae3747-d758-4b28-973f-0acd2d21e6b2  lvm2 a--  <1.64t    0 /dev/sdj   ceph-44c4d98f-1940-4d9f-b132-3fdf5178233c  lvm2 a--  <1.64t    0/dev/sdk   ceph-a1b13b3b-b8d7-40d4-b7d4-ca5174adb012  lvm2 a--  <1.64t    0 /dev/sdl   ceph-2f15820c-0e12-4518-a103-26bd3ee35d4e  lvm2 a--  <1.64t    0 /dev/sdm   ceph-ed5d6897-d93c-4037-a3e8-5a7fce070ba8  lvm2 a--  <1.64t    0 /dev/sdn   ceph-b8502c37-69b9-45a9-bbaf-d29d6d322d991 lvm2 a--  <1.64t    0 /dev/sdo   ceph-6968d0c9-6b29-4457-8e08-b292324675f4  lvm2 a--  <1.64t    0 /dev/sdp   ceph-a102a5f5-a59e-4dd0-9c88-8c721603af6e  lvm2 a--  <1.64t    0 /dev/sdq   ceph-49543ed2-4b3e-43d9-aa25-7693ded3c898  lvm2 a--  <1.64t    0 /dev/sds   ceph-15fb9166-e800-4556-bfee-4a97b7f598b5  lvm2 a--  <1.64t    0 /dev/sdt   ceph-f7f0916c-385d-4f41-a041-0009d914bd0e  lvm2 a--  <1.64t    0 /dev/sdu   ceph-42315175-e55c-4bc3-8db6-c184986f28b4  lvm2 a--  <1.64t    0
[root@cmp13 ~]# dmsetup remove /dev/ceph-3310ea32-d1d3-4b15-86ef-ef3047684498/osd-data-99e5b417-19f9-427c-aa77-d8dc7cece135

参考文章:

17 hpacucli Command Examples for Linux on HP Servers

Opening the CLI in Console mode

Physically removed a disk before deactivating volume group and can’t get LVM to stop printing errors about it
Linux 不重启扫描存储磁盘

hp ilo 服务器 hpssacli 做 raid相关推荐

  1. 云服务器怎么做raid,深入剖析—服务器应该做RAID几?

    1.通过把多个磁盘组织在一起作为一个逻辑卷提供磁盘跨越功能 2.通过把数据分成多个数据块(Block)并行写入/读出多个磁盘以提高访问磁盘的速度 3.通过镜像或校验操作提供容错能力 根据实际情况选择适 ...

  2. 惠普g7服务器硬盘阵列,HP DL388 G7 服务器重新做RAID

    HP DL388 G7 服务器做RAID 时间:20190626 介绍: 因为工作需求需要将新来的服务器的硬盘做一些调整,需要重新做RAID. 首先在调整完各个服务器的硬盘数量,分配好之后重启服务器. ...

  3. 戴尔服务器阵列装系统,戴尔服务器R720做Raid 0并安装VMware ESXi 6.7系统方法

    前言⚠️ 我这台服务器的作用是用来当测试服务器的,数据存储量不大并且对数据安全性要求不高,所以做的Raid 0,如果你对数据安全要求性高的话建议做Raid 5或者Raid 1! RAID卡配置涉及的一 ...

  4. Dell服务器如何做raid

    创建Raid0与Raid5的方式是一样的,下列步骤以创建Raid5为例. 1.重启服务器,点按F11,在启动界面注意观察,有RAID项,且有Ctrl+R:之后点按Ctrl+R,便进入了配置界面,如图: ...

  5. 华为服务器RH2288做raid方法

    1 开机根据屏幕提示按ctrl+R进入raid设置界面 2 光标移动到sas3108(bus 0x01-)上按F2(类似鼠标右件功能),创建如下图 3 选择raid等级,这里采用raid5,然后使用t ...

  6. 服务器组装raid,服务器怎样做(RAID 1或RAID 0 ) 和安装时具体设定

    RAID1的制作 1. 物理联接:二个硬盘都要跳成主盘分别用数据线(最好是RAID卡自带的)接到RAID卡的IDE1.IDE2上, 2. 接好并插到服务器上开机会检测到RAID卡的状态的,出现&quo ...

  7. HP服务器做raid

    HP服务器做RAID方法 HP服务器RAID配置 HP服务器做RAID方法: 自检完成按esc,接着再自检,当出现p400或者p600,按f8,默认2块盘是RAID1,因为服务器必须做RAID,要想不 ...

  8. 浪潮NF5280M5服务器做RAID装windows server2019系统保姆级教学

    新项目把原来的联想服务器换成了浪潮的,并且开机之后一直没有进系统,咨询厂家原来是购买机器的时候没有购买服务器系统,需要自己装系统,之前都是给工作站笔记本什么的装系统,使用PE直接一键安装在服务器行不台 ...

  9. 惠普服务器G8系列做raid,hp g8服务器设置raid5

    hp g8服务器设置raid5 内容精选 换一换 扩容成功后,对于linux操作系统而言,需要将扩容部分的容量划分至原有分区内,或者为扩容部分的磁盘分配新的分区.本文以"CentOS 7.0 ...

最新文章

  1. OpenResty 最佳实践
  2. go io.reader 多次读取_Go 语言进阶:freecache 源码学习(1)
  3. 为什么在把多维数组传递给函数时必须要指定除第一维之外的其他维
  4. 域名解析对网站SEO优化有何影响?
  5. 学写网站(一)前端配置之安装nvm、node、npm
  6. oracle高级查询案例,oracle高级查询(实例基于scott用户四张表)
  7. JS数据结构学习之排序
  8. JAVA复合判断_一起来学Java8(四)——复合Lambda
  9. CSS基础——定位 (position)【学习笔记】
  10. ERROR 1045 (28000): Access denied for user 'backup'@'mysql' (using password: YES)
  11. “21天好习惯”第一期-10
  12. hdu acm2309
  13. 软件加密狗破解思路和防破解的博弈之路
  14. spring boot小说网站系统 毕业设计源码论文+答辩PPT
  15. vba批量合并指定的sheet_用VBA实现把多个Excel文件合并到一个Excel文件的多个工作表(Sheet)里...
  16. 手机短信转发到另一个手机接收_我买了个能贴在手机上的显微镜,结果发现了另一个世界...
  17. Android 中的卡顿丢帧原因概述 - 低内存篇
  18. 立创梁山派GD32F450ZGT6--屏幕扩展板LVGL应用
  19. 视频怎么去水印和字幕
  20. 设计一个动物声音“模拟器”

热门文章

  1. 普通IT中年自救指南(一)
  2. RTOS内功修炼记(九)—— 任务入口函数执行完毕之后去哪里?
  3. matlab中的代数环问题及其消除方法,Matlab中的代数环问题及其消除方法
  4. ”核高基“重大专项造成体制浪费就应该取消
  5. 日期转换--接收日期与数据库存储不兼容问题时间段查询
  6. Linux命令之yum命令
  7. 苹果屏蔽更新描述文件_屏蔽描述文件失效!iOS13屏蔽系统更新方法推荐
  8. 攻防世界illusion暴力破解
  9. 树状数组两种基本的模式
  10. 分享一个看起来挺酷眩的canvas做的粒子漩涡