CentOS7.2 部署Ceph分布式存储
1.1 环境准备
主机名 | IP地址 |
---|---|
ceph-admin | 192.168.16.220 |
ceph-node1,ceph-mon | 192.168.16.221 |
ceph-node2,ceph-mon | 192.168.16.222 |
ceph-node3,ceph-mon | 192.168.16.223 |
1.1.1 配置ssh密钥访问
ssh-keygen -f ~/.ssh/id_rsa;
ssh-copy-id -i root@192.168.16.221-223
1.1.2 添加hosts,配置主机名
cat /etc/hosts
192.168.16.220 ceph-admin
192.168.16.221 ceph-node1 ceph-mon
192.168.16.222 ceph-node2 ceph-mon
192.168.16.223 ceph-node3 ceph-mon
for n in `seq 3`;do \
scp /etc/hosts 192.168.16.22$n:/etc/hosts; \
ssh 192.168.16.22$n "hostnamectl set-hostname ceph-node$n;" \
done
1.1.3 关闭firewalld、selinux
for n in `seq 3`;do \
ssh 192.168.16.22$n "systemctl stop firewalld; \
systemctl disable firewalld; \
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config; \
setenforce 0 "; \
done
1.1.4 时间更新同步
for n in `seq 3`;do \
ssh 192.168.16.22$n "yum install ntpdate -y; \
ntpdate asia.pool.ntp.org" \
done
1.1.5 替换repo
export CEPH_DEPLOY_REPO_URL=http://172.18.210.253/repo/ceph-el7/jewel
export CEPH_DEPLOY_GPG_URL=http://172.18.210.253/repo/ceph-el7/jewel/release.asc
注:如果本地源有问题或不在本地时,使用国内的源即可
export CEPH_DEPLOY_REPO_URL=http://mirrors.163.com/ceph/rpm-jewel/el7
export CEPH_DEPLOY_GPG_URL=http://mirrors.163.com/ceph/keys/release.asc
1.2 安装 ceph
1.2.1 安装ceph管理工具ceph-deploy
yum install -y ceph-deploy
1.2.2 创建工作目录
mkdir /ceph ; cd /ceph
1.2.3 安装ceph客户端
yum install -y ceph 或者 在管理节点上之行
ceph-deploy install ceph-admin ceph-node1 ceph-node2 ceph-node3
1.2.4 创建ceph集群
ceph-deploy new ceph-node1 ceph-node2 ceph-node3 #建议是奇数# cat ceph.conf
fsid = 7e1daeea-417e-43e3-a2fe-56d9444f2fbf
mon_initial_members = ceph-node1, ceph-node2, ceph-node3
mon_host = 192.168.16.221,192.168.16.222,192.168.16.223
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
rbd_default_features = 1
mon clock drift allowed = 2
mon clock drift warn backoff = 30
注意:
1、部分操作系统kernel只支持layering,所以最好直接在配置文件指明创建rbd时默认支持的特性
rbd_default_features = 1
2、由于ceph分布式对时钟的同步要求很高,可以将同步误差范围调大;
mon clock drift allowed = 2
mon clock drift warn backoff = 30
ceph-deploy mon create-initial
1.2.5 创建osd
- 创建osd有两种方式
1、使用系统裸盘,作为存储空间;
2、使用现有文件系统,以目录或分区作为存储空间,官方建议为 OSD 及其日志使用独立硬盘或分区作为存储空间
1.2.5.1 使用分区
ceph-deploy disk zap ceph-node1:/dev/sdb1 ceph-node2:/dev/sdb1 ceph-node3:/dev/sdb1
ceph-deploy osd prepare ceph-node1:/dev/sdb1 ceph-node2:/dev/sdb1 ceph-node3:/dev/sdb1
ceph-deploy osd activate ceph-node1:/dev/sdb1 ceph-node2:/dev/sdb1 ceph-node3:/dev/sdb1
1.2.5.2 使用目录
ssh ceph-node1 “mkdir /datal/osd0;chown -R ceph:ceph /data/osd0"
ssh ceph-node2 “mkdir /datal/osd1;chown -R ceph:ceph /data/osd1"
ssh ceph-node3 “mkdir /datal/osd2;chown -R ceph:ceph /data/osd2"
ceph-deploy osd prepare ceph-node1:/data/osd0 ceph-node2:/data/osd1 ceph-node3:/data/osd2
ceph-deploy osd acivate ceph-node1:/data/osd0 ceph-node2:/data/osd1 ceph-node3:/data/osd2
1.2.6 赋予管理员权限
ceph-deploy admin ceph-admin
# ceph -scluster 7e1daeea-417e-43e3-a2fe-56d9444f2fbf
health HEALTH_OK
monmap e1: 3 mons at {ceph-node1=192.168.16.221:6789/0,ceph-node2=192.168.16.222:6789/0,ceph-node3=192.168.16.223:6789/0}election epoch 4, quorum 0,1,2 ceph-node1,ceph-node2,ceph-node3
osdmap e14: 3 osds: 3 up, 3 inflags sortbitwise,require_jewel_osds
pgmap v24: 64 pgs, 1 pools, 0 bytes data, 0 objects15460 MB used, 2742 GB / 2757 GB avail64 active+clean
# ceph health
HEALTH_OK
1.2.7 创建pool
ceph osd pool create image 64
ceph osd pool delete rbd rbd --yes-i-really-really-mean-it
ceph建好后默认有个rbd池,可以考虑删除
rbd create test --size 1024 -p image
注:创建一个镜像,-p参数指定池的名称,-size单位为M
1.3 常用操作
1.3.1 ceph reset
ceph-deploy purge 节点1 节点2 ....
ceph-deploy purgedata 节点1 节点2 ....
ceph-deploy forgetkeys
1.3.2 常用命令
rados lspools 查看池子ceph -s 或 ceph status 查看集群状态ceph -w 观察集群健康状态ceph quorum_status --format json-pretty 检查ceph monitor仲裁状态ceph df 检查集群使用情况ceph mon stat 检查monitor状态ceph osd stat 检查osd状态ceph pg stat 检查pg配置组状态ceph pg dump 列出PGceph osd lspools 列出存储池ceph osd tree 检查osd的crush mapceph auth list 列出集群的认证密钥ceph 获取每个osd上pg的数量
转载于:https://www.cnblogs.com/zw12078/p/8793381.html
CentOS7.2 部署Ceph分布式存储相关推荐
- Centos7下使用Ceph-deploy快速部署Ceph分布式存储
#Centos7下使用Ceph-deploy快速部署Ceph分布式存储 CEPH 简介 不管你是想为云平台提供Ceph 对象存储和/或 Ceph 块设备,还是想部署一个 Ceph 文件系统或者把 C ...
- 部署ceph分布式存储集群
部署ceph分布式存储集群 本次ceph分布式存储集群部署基于centos7.4操作系统环境且服务器或PC硬件应具备4个硬盘. 1 安装CentOS 7.4操作系统 1.1 制作安装U盘 (1)安装U ...
- 世界500强是如何解决千亿流量留存问题的,《Ceph分布式存储架构》-使用CentOS 7部署 Ceph分布式存储架构-为他们解决什么问题。
文章目录 一.Ceph概述 1.1 Ceph介绍 1.2 Ceph各组件介绍 二.ceph集群部署实验 2.1 配置Ceph安装源 2.2 在xuegod63上安装ceph-deploy管理工具 2. ...
- CentOS 7部署 Ceph分布式存储架构
目录 : 8.1 Ceph概述 8.2 ceph集群部署实验 8.3 不同挂载方式 8.1 Ceph概述 随着OpenStack日渐成为开源云计算的标准软件栈,Ceph也已经成为OpenStack的首 ...
- CentOS 7 部署 Ceph 分布式存储架构
Ceph 概述 随着 OpenStack 日渐成为开源云计算的标准软件栈,Ceph 也已经成为 OpenStack 的首选后端存储. Ceph 是一种为优秀的性能.可靠性和可扩展性而设计的统一的.分布 ...
- Centos7下部署ceph 12.2.1 (luminous)集群及RBD使用
原创,本文地址http://www.cnblogs.com/pcxie/p/7799372.html 前言 本文搭建了一个由三节点(master.slave1.slave2)构成的ceph分布式集群, ...
- 【精品】轻松部署ceph分布式存储集群
目录 避免的问题点 1.拷贝deploy节点所有yum源文件,导致在部署节点执行,所有节点安装ceph软件步骤报错 2.报错,定位问题焦点不准的情况 3.忽视时间同步导致报错 一.虚拟机配置 二.部署 ...
- Ceph分布式存储系列(二):ceph-deploy方式部署三节点ceph集群
承接上文:Ceph分布式存储系列(一):Ceph工作原理及架构浅析梳理 之前都是使用Deepsea方式部署的ceph,长时间不用ceph-deploy了,这次来回顾,顺便总结下! 前言: ceph-d ...
- CEPH分布式存储部署
ceph支持块存储.对象存储.cephfs文件共享系统,概念性的东西这里不过多介绍,请自行查阅ceph分布式存储相关资料,本文主要介绍ceph分布式集群部署 操作系统:centos7.9 最小安装 节 ...
最新文章
- python mongodb orm_Django 通过 mongoengine 连接 MongoDB 进而使用orm进行CRUD
- 第k大的数python代码_【Python】【输出前m大的数】
- 2019年美国国家人工智能战略报告(中文翻译版)
- 将Windows下的InfluxDB、Grafana做成Windows服务
- 算法优化:rgb向yuv的转化最优算法,快得让你吃惊!
- 图形变换动画的小Demo
- 使用JAX-RS和Jetty创建Web服务和Rest Server
- 在编码中熟练使用JDK文档
- 移动应用测试基于JAVA_Appium用于测试Android混合移动应用程序
- Adobe Premiere 基本使用
- Spark 1.0.0版本号公布
- Linux文件夹操作
- appium简明教程
- 单变量微积分(二):关于sinx和cosx的求导的推导
- sniffer与网络执法官,p2p终结者的简单对比
- MATLAB:未来搜索算法(FSA)优化BP神经网络权值、阈值用于降水预测
- C#上位机(数据校验发送指令来控制下位机)
- vim 删除重复部分的行 vim 技巧
- 聊天记录怎么删除才能防止被恢复
- java kryo register_kryo处理unmodifiedList报错问题