尝试一、直接重新激活所有osd

1、查看osd树

[root@ceph01 ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.29279 root default
-2 0.14639     host ceph01
0.14639         osd.0        up  1.00000          1.00000
-3 0.14639     host ceph02
0.14639         osd.1      down        0          1.00000

发现osd.1是down掉的。

2、再次激活所有的osd(记住是所有的,不只是down掉这一个)

下面命令当中的/dev/sdb1是每一个osd节点使用的实际存储硬盘或分区。

ceph-deploy osd activate  ceph01:/dev/sdb1 ceph02:/dev/sdb1

3、查看osd树和健康状态

[root@ceph01 my-cluster]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.29279 root default
-2 0.14639     host ceph01
0.14639         osd.0        up  1.00000          1.00000
-3 0.14639     host ceph02
0.14639         osd.1        up  1.00000          1.00000
root@ceph01:~/my-cluster#
[root@ceph01 my-cluster]# ceph -scluster ecacda71-af9f-46f9-a2a3-a35c9e51db9ehealth HEALTH_OKmonmap e1: 1 mons at {ceph01=10.111.131.125:6789/0}election epoch 14, quorum 0 ceph01osdmap e150: 2 osds: 2 up, 2 inflags sortbitwise,require_jewel_osdspgmap v9284: 64 pgs, 1 pools, 17 bytes data, 3 objects10310 MB used, 289 GB / 299 GB avail64 active+clean

尝试二、修复down掉的osd

该方法主要应用于某个osd物理损坏,导致激活不了

1、查看osd树

[root@ceph01 ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.29279 root default
-2 0.14639     host ceph01                                   0 0.14639         osd.0        up  1.00000          1.00000
-3 0.14639     host ceph02                                   1 0.14639         osd.1      down        0          1.00000 

发现osd.1是down掉的。

2、将osd.1的状态设置为out

[root@ceph02 ~]# ceph osd out osd.1
osd.1 is already out. 

3、从集群中删除

[root@ceph02 ~]# ceph osd rm osd.1
removed osd.1

4、从CRUSH中删除

[root@ceph02 ~]# ceph osd crush rm osd.1
removed item id 1 name 'osd.1' from crush map

5、删除osd.1的认证信息

[root@ceph02 ~]# ceph auth del osd.1
updated

6、umount

umount /dev/sdb1

7、再次查看osd的集群状态

[root@ceph02 ~]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.14639 root default
-2 0.14639     host ceph01                                   0 0.14639         osd.0        up  1.00000          1.00000
-3       0     host ceph02    

8、登录ceph-deploy节点

[root@ceph01 ~]# cd /root/my-cluster/
[root@ceph01  my-cluster]# 

9、初始化磁盘

ceph-deploy --overwrite-conf osd  prepare ceph02:/dev/sdb1

10、再次激活所有的osd(记住是所有的,不只是down掉这一个)

ceph-deploy osd activate  ceph01:/dev/sdb1 ceph02:/dev/sdb1

11、查看osd树和健康状态

[root@ceph01 my-cluster]# ceph osd tree
ID WEIGHT  TYPE NAME       UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.29279 root default
-2 0.14639     host ceph01                                   0 0.14639         osd.0        up  1.00000          1.00000
-3 0.14639     host ceph02                                   1 0.14639         osd.1        up  1.00000          1.00000
[root@ceph01 my-cluster]# ceph -scluster ecacda71-af9f-46f9-a2a3-a35c9e51db9ehealth HEALTH_OKmonmap e1: 1 mons at {ceph01=10.111.131.125:6789/0}election epoch 14, quorum 0 ceph01osdmap e150: 2 osds: 2 up, 2 inflags sortbitwise,require_jewel_osdspgmap v9284: 64 pgs, 1 pools, 17 bytes data, 3 objects10310 MB used, 289 GB / 299 GB avail64 active+clean

只有为 HEALTH_OK 才算是正常的。

ceph修复osd为down的情况相关推荐

  1. ceph osd为down的情况

    ceph修复osd为down的情况 尝试一.直接重新激活所有osd 1.查看osd树 root@ceph01:~# ceph osd tree ID WEIGHT TYPE NAME UP/DOWN ...

  2. win7启动无法自动修复此计算机,win7系统启动修复_win7系统中启动修复无法自动修复此计算机情况的三种解决方法介绍_win7双系统启动修复...

    使用Windows 7操作系统开机提示自动修复,无法正常进入操作系统.经过分析,部分系统修复报错文件为:X:\Windows\system32\drivers\spoon.sys 如下图: 解决方法: ...

  3. Ceph daemon osd perf dump 命令

    Ceph 版本:0.94.7 http://docs.ceph.com/docs/master/dev/perf_counters/?highlight=perf%20dump Ceph 提供了许多非 ...

  4. 【ceph】OSD心跳检测机制(前端后端网)

    目录 ceph心跳机制 OSD间的心跳机制 发送 接收 超时检测 peer OSD选择 OSD和MON间的心跳机制 总结: @bandaoyu,本文随时更新,连接:https://blog.csdn. ...

  5. Ceph 学习——OSD读写流程与源码分析(一)

    消息从客户端发送而来,之前几节介绍了 客户端下 对象存储.块存储库的实现以及他们在客户端下API请求的发送过程(Ceph学习--Librados与Osdc实现源码解析 . Ceph学习--客户端读写操 ...

  6. Ceph添加OSD节点

    1.首先需要在新的节点上安装ceph软件,当然这个需要做一系列的准备工作 比如安装ssh-keygen,配置ntp等 在管理节点上执行: [root@ceph-admin ~]#su -dgb $ce ...

  7. ceph osd 由于“No space left on device” 异常down,通过扩容文件系统或者显式运行osd进程解决

    文章目录 ceph版本: 环境配置: 异常问题: 问题解决: 总结 ceph版本: ceph 12.2.1 环境配置: tier_pool 16个分区大小800G 的osd容量 3副本 data_po ...

  8. Ceph 存储集群2-配置:心跳选项、OSD选项、存储池、归置组和 CRUSH 选项

    一.心跳选项 完成基本配置后就可以部署.运行 Ceph 了.执行 ceph health 或 ceph -s 命令时,监视器会报告 Ceph 存储集群的当前状态.监视器通过让各 OSD 自己报告.并接 ...

  9. ceph 查看是否在恢复_Ceph osd故障恢复

    1  调高osd的日志等级 加上红框那一行就可以了 osd的日志路径:/var/log/ceph/ceph-osd.3.log 注意:加上了这一行后日志会刷很多,所以要特别注意日志容量的变化,以防把v ...

最新文章

  1. java git subtree_Git subtree使用
  2. Apache Flink 零基础入门(三)编写最简单的helloWorld
  3. go语言快速刷《程序员面试金典》(1)
  4. Nginx安装及配置反向代理
  5. [轉載]Google C++編程風格指南(四):智能指針和其他C++特性
  6. centos7 centos6.5部KVM使用NAT联网并为虚拟机配置firewalld iptables防火墙端口转发...
  7. 百德科技专业定制软件开发
  8. bp神经网络的应用案例,bp神经网络数学模型
  9. c语言以顺序结构存储的二叉树的非递归遍历,一种二叉树非递归遍历算法的C语言实现...
  10. Survey: A Survey on Image Tampering and Its Detection in Real-world Photos 图像仿冒
  11. 微信公众号、订阅号、服务号、企业号的区别
  12. 计算机扩大C盘分区容量,教你在保留数据的情况下,如何把C盘容量无限扩大!...
  13. 荣耀笔记本linux版拆机,荣耀MagicBook Pro 16.1拆机有惊喜,官方都没提,居然能拓展...
  14. 零基础学CocosCreator·第八季-双人对战五子棋
  15. android 钢琴识别音阶对错_练习音阶琶音的方法——你确定自己没弄错?
  16. Alan Walker MV 合辑01 by defender 歌词
  17. ubuntu双系统命令行访问win盘
  18. ArcGIS Maritime Server 开发教程(一)了解 ArcGIS Maritime Server
  19. virtualxposed使用教程_不需要Root使用Xposed模块教程EXposed(非VirtualXposed)
  20. mysql数据库数据的删除与恢复

热门文章

  1. 千亿市值今天解禁 美团点评“心里没谱”
  2. ubuntu18 百度云盘
  3. SMC 缸阀匹配气动系统选型程序
  4. 04 4bit移位寄存器设计与功能验证(附源码)
  5. 我要学编程,看什么书好?--^_^,这里推荐一些个人觉得很不错的书(三)
  6. 电子设计教程40:软启动电路-串联NTC热敏电阻
  7. 从数学角度理解欧拉旋转中的万向节死锁
  8. Python 程序设计(第二版)董付国_清华大学出版社_习题答案【未处理1-9章】
  9. Java基础--继承案例(二)
  10. 云服务器的地域怎么选择?