ceph RBD块存储常规操作
查看pools
创建一个pool,包含64个pg和64个pgp
[root@node-1 ~]# ceph osd pool create ceph-demo 64 64
pool 'ceph-demo' created
[root@node-1 ~]# ceph osd lspools
1 ceph-demo
查看pg和pgp
[root@node-1 ~]# ceph osd pool get ceph-demo pg_num
pg_num: 64
[root@node-1 ~]# ceph osd pool get ceph-demo pgp_num
pgp_num: 64
#副本数,默认就是3个
[root@node-1 ~]# ceph osd pool get ceph-demo size
size: 3
调整pg和pgp
[root@node-1 ~]# ceph osd pool set ceph-demo pg_num 128
set pool 1 pg_num to 128
[root@node-1 ~]# ceph osd pool set ceph-demo pgp_num 128
set pool 1 pgp_num to 128
查看
[root@node-1 ~]# ceph -s
cluster:
id: c16b9145-7216-4058-8bfb-c9b7b2b702de
health: HEALTH_OK
services:
mon: 3 daemons, quorum node-1,node-2,node-3 (age 2w)
mgr: node-1(active, since 2w), standbys: node-2, node-3
osd: 3 osds: 3 up (since 2w), 3 in (since 2w)
data:
pools: 1 pools, 128 pgs
objects: 0 objects, 0 B
usage: 3.0 GiB used, 147 GiB / 150 GiB avail
pgs: 128 active+clean
创建rbd
rbd create -p ceph-demo --image rbd-demo.img --size 10G
查看
[root@node-1 ~]# rbd -p ceph-demo ls
rbd-demo.img[root@node-1 ~]# rbd info ceph-demo/rbd-demo.img
rbd image 'rbd-demo.img':size 10 GiB in 2560 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 1143ee2e8a3ablock_name_prefix: rbd_data.1143ee2e8a3aformat: 2features: layering, exclusive-lock, object-map, fast-diff, deep-flattenop_features: flags: create_timestamp: Tue Nov 17 14:57:35 2020access_timestamp: Tue Nov 17 14:57:35 2020modify_timestamp: Tue Nov 17 14:57:35 2020删除rbd
rbd rm -p ceph-demo --image rbd-demo.img挂载块设备
禁用新特性,3.10内核不支持
rbd feature disable ceph-demo/rbd-demo.img deep-flatten
rbd feature disable ceph-demo/rbd-demo.img fast-diff
rbd feature disable ceph-demo/rbd-demo.img object-map
rbd feature disable ceph-demo/rbd-demo.img exclusive-lock 查看
[root@node-1 ~]# rbd -p ceph-demo info rbd-demo.img
rbd image 'rbd-demo.img':size 10 GiB in 2560 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 1143ee2e8a3ablock_name_prefix: rbd_data.1143ee2e8a3aformat: 2features: layeringop_features: flags: create_timestamp: Tue Nov 17 14:57:35 2020access_timestamp: Tue Nov 17 14:57:35 2020modify_timestamp: Tue Nov 17 14:57:35 2020创建
创建
[root@node-1 ~]# rbd map ceph-demo/rbd-demo.img
/dev/rbd0
查看
[root@node-1 ~]# rbd device list
id pool namespace image snap device
0 ceph-demo rbd-demo.img - /dev/rbd0 [root@node-1 ~]# fdisk -l
Disk /dev/rbd0: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 4194304 bytes / 4194304 bytes然后就可以进行格式化,分区操作了
mkfs.ext4 /dev/rbd0
lsblk
mkdir /mnt/rbd-demo
mount /dev/rbd0 /mnt/rbd-demo
df -h
扩容
当前10个G
[root@node-1 ~]# rbd -p ceph-demo info rbd-demo.img
rbd image 'rbd-demo.img':size 10 GiB in 2560 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 1143ee2e8a3ablock_name_prefix: rbd_data.1143ee2e8a3aformat: 2features: layeringop_features: flags: create_timestamp: Tue Nov 17 14:57:35 2020access_timestamp: Tue Nov 17 14:57:35 2020modify_timestamp: Tue Nov 17 14:57:35 2020[root@node-1 ~]# rbd resize ceph-demo/rbd-demo.img --size 20G
Resizing image: 100% complete...done.扩容后,变成20个G
[root@node-1 ~]# rbd -p ceph-demo info rbd-demo.img
rbd image 'rbd-demo.img':size 20 GiB in 5120 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 1143ee2e8a3ablock_name_prefix: rbd_data.1143ee2e8a3aformat: 2features: layeringop_features: flags: create_timestamp: Tue Nov 17 14:57:35 2020access_timestamp: Tue Nov 17 14:57:35 2020modify_timestamp: Tue Nov 17 14:57:35 2020
但是只是对底层进行扩容,但是对于磁盘分区没有扩容
resize2fs /dev/rbd0缩容不建议错,很容易造成数据丢失
告警排查
健康状态详情
[root@node-1 ~]# ceph health detail
HEALTH_WARN application not enabled on 1 pool(s)
POOL_APP_NOT_ENABLED application not enabled on 1 pool(s)application not enabled on pool 'ceph-demo'use 'ceph osd pool application enable <pool-name>
<app-name>', where <app-name> is 'cephfs', 'rbd', 'rgw', or
freeform for custom applications.一个资源池没有启用application,解决方案是启用起来,并且指定应用类型
解决
[root@node-1 ~]# ceph osd pool application enable ceph-demo rbd
enabled application 'rbd' on pool 'ceph-demo'[root@node-1 ~]# ceph osd pool application get ceph-demo
{"rbd": {}
}查看状态[root@node-1 ~]# ceph -scluster:id: c16b9145-7216-4058-8bfb-c9b7b2b702dehealth: HEALTH_OKservices:mon: 3 daemons, quorum node-1,node-2,node-3 (age 2w)mgr: node-1(active, since 2w), standbys: node-2, node-3osd: 3 osds: 3 up (since 2w), 3 in (since 2w)data:pools: 1 pools, 128 pgsobjects: 4 objects, 35 Busage: 3.0 GiB used, 147 GiB / 150 GiB availpgs: 128 active+clean
Ceph集群维护
1. 物理机器关机维护
迁移相关虚拟机/业务至其他节点(openstack等需要把虚拟机迁移出去);
在MON或者有admin权限的节点执行操作:
# 设置OSD的锁定 for i in noout nobackfill norecovery;do ceph osd set $i;done # 完成机器维护后,加电,重新同步数据 for i in noout nobackfill norecovery;do ceph osd unset $i;done
2. 用systemctl控制Ceph
# start/stop all ceph-mds@.service instances at once
systemctl start/stop/restart ceph-mds.target
# start/stop all ceph-mgr@.service instances at once
systemctl start/stop/restart ceph-mgr.target
# start/stop all ceph-mon@.service instances at once
systemctl start/stop/restart ceph-mon.target
# start/stop all ceph-osd@.service instances at once
systemctl start/stop/restart ceph-osd.target
# start/stop all ceph-radosgw@.service instances at once
systemctl start/stop/restart ceph-radosgw.target
# start/stop all ceph*@.service instances at once
systemctl start/stop/restart ceph.target
3. Ceph常用监测命令
# 检查集群状态
ceph health
ceph status
ceph quorum_status
ceph mon_status
# 观察集群内正发生的事件
ceph -w/-s# 检查集群的使用情况
ceph df
# 检查 OSD 状态
ceph osd stat
ceph osd dump
# 打印 CRUSH 树
ceph osd tree# 检查 Mon 状态
ceph mon stat
ceph mon dump
# 检查MON法定人数状态
ceph quorum_status -f json-pretty# 检查 MDS 状态
ceph mds stat
ceph mds dump
-----------------------------------# 监控 PG
ceph pg dump
# 查看指定 PG 的 Acting Set 或 Up Set 中包含的 OSD
ceph pg map {pg-num}
查看机器的监控状态
ceph health1
查看ceph的实时运行状态
ceph -w1
检查信息状态信息
ceph -s1
查看ceph存储空间
ceph df1
删除一个节点的所有的ceph数据包
ceph-deploy purge node1 ceph-deploy purgedata node112
创建管理用户
为ceph创建一个admin用户并为admin用户创建一个密钥,把密钥保存到/etc/ceph目录下:
ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' > /etc/ceph/ceph.client.admin.keyring
或
ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' -o /etc/ceph/ceph.client.admin.keyring123
为osd.0创建一个用户并创建一个key
ceph auth get-or-create osd.0 mon 'allow rwx' osd 'allow *' -o /var/lib/ceph/osd/ceph-0/keyring1
为mds.node1创建一个用户并创建一个key
ceph auth get-or-create mds.node1 mon 'allow rwx' osd 'allow *' mds 'allow *' -o /var/lib/ceph/mds/ceph-node1/keyring1
查看ceph集群中的认证用户及相关的key
ceph auth list1
删除集群中的一个认证用户
ceph auth del osd.01
查看集群的详细配置
ceph daemon mon.node1 config show | more1
查看集群健康状态细节
ceph health detail1
查看ceph log日志所在的目录
ceph-conf --name mon.node1 --show-config-value log_file1
mon命令
ceph mon stat#查看mon的状态信息ceph mon dump#查看ceph映射信息ceph mon remove node1 #删除一个mon节点 ceph-deploy mon destroy {host-name [host-name]...}ceph mon add node1 node1_ip #添加一个mon节点 ceph-deploy mon create {host-name [host-name]...} mon节点的/var/lib/ceph/mon/ceph-node2/store.db文件内容一致,添加mon注意先改配置目录配置文件,再推送到所有节点ceph-deploy --overwrite-conf config push node1 node2 node3
mds命令
ceph mds stat #查看msd状态ceph mds dump #msd的映射信息ceph mds rm 0 mds.node1#删除一个mds节点ceph-deploy mds create {host-name}[:{daemon-name}] [{host-name}[:{daemon-name}] ...]
osd命令
ceph osd stat #查看osd状态ceph osd dump #osd的映射信息ceph osd tree#查看osd目录树ceph osd down 0 #down掉osd.0节点ceph osd rm 0#集群删除一个osd硬盘ceph osd crush remove osd.4#删除标记ceph osd getmaxosd#查看最大osd个数ceph osd setmaxosd 10#设置osd的个数ceph osd out osd.3#把一个osd节点逐出集群ceph osd in osd.3#把逐出的osd加入集群ceph osd pause#暂停osd (暂停后整个集群不再接收数据)ceph osd unpause#再次开启osd (开启后再次接收数据)
pg命令
ceph pg stat#查看pg状态ceph pg dump#查看pg组的映射信息ceph pg map 0.3f#查看一个pg的mapceph pg 0.26 query#查看pg详细信息ceph pg dump --format plain#显示一个集群中的所有的pg统计
osd命令
ceph osd lspools#查看ceph集群中的pool数量ceph osd pool create jiayuan 100#创建一个pool 这里的100指的是PG组ceph osd pool delete jiayuan jiayuan --yes-i-really-really-mean-it #集群名字需要重复两次rados df#显示集群中pool的详细信息ceph osd pool get data pg_num #查看data池的pg数量ceph osd pool set data target_max_bytes 100000000000000#设置data池的最大存储空间为100T(默认是1T)ceph osd pool set data size 3 #设置data池的副本数是3ceph osd pool set data min_size 2 #设置data池能接受写操作的最小副本为2ceph osd pool set data pg_num 100#设置一个pool的pg数量ceph osd pool set data pgp_num 100#设置一个pool的pgp数量
rados和rbd命令
rados lspools#查看ceph集群中有多少个pool (只是查看pool)rados df #查看ceph集群中有多少个pool,并且每个pool容量及利用情况rados mkpool test#创建一个poolrados create test-object -p test#创建一个对象object rados rm test-object-1 -p test#删除一个对象object rados -p test lsrbd ls pool_name#查看ceph中一个pool里的所有镜像rbd info -p pool_name --image 74cb427c-cee9-47d0-b467-af217a67e60a #查看ceph pool中一个镜像的信息rbd create -p test --size 10000 zhanguo#在test池中创建一个命名为zhanguo的10000M的镜像rbd rm -p test lizhanguo #删除一个镜像rbd resize -p test --size 20000 zhanguo #调整一个镜像的尺寸
创建一个osd
ceph-deploy disk zap {osd-server-name}:{disk-name} #擦净磁盘ceph-deploy osd prepare {node-name}:{disk}[:{path/to/journal}]ceph-deploy osd prepare osdserver1:sdb:/dev/ssd1ceph-deploy osd activate {node-name}:{path/to/disk}[:{path/to/journal}]ceph-deploy osd activate osdserver1:/dev/sdb1:/dev/ssd1把改过的配置文件分发给集群内各主机ceph-deploy config push {host-name [host-name]...}
CRUSH映射
ceph osd getcrushmap -o MAP #获取一个CRUSH映射crushtool -d MAP -o MAP.TXT #反编译一个CRUSH映射crushtool -c MAP.TXT -o MAP #编译一个CRUSH映射ceph osd setcrushmap -i MAP #设置一个CRUSH映射
块设备的一些命令
单位为M,默认在rbd pool中
创建块设备:rbd create {image-name} --size {megabytes} --pool {pool-name}列出块设备:rbd ls {poolname} -l检索块信息:rbd --image {image-name} info更改块大小:rbd resize --image {image-name} --size {megabytes}删除块设备:rbd rm {image-name}映射块设备:rbd map {image-name} --pool {pool-name} --id {user-name}查看已映射块设备:rbd showmapped取消映射:rbd unmap /dev/rbd/{poolname}/{imagename}
快照和克隆相关命令
创建快照:rbd --pool {pool-name} snap create --snap {snap-name} {image-name}rbd snap create {pool-name}/{image-name}@{snap-name}快照回滚:rbd --pool {pool-name} snap rollback --snap {snap-name} {image-name}rbd snap rollback {pool-name}/{image-name}@{snap-name}清除快照:rbd --pool {pool-name} snap purge {image-name}rbd snap purge {pool-name}/{image-name}删除快照:rbd --pool {pool-name} snap rm --snap {snap-name} {image-name}rbd snap rm {pool-name}/{image-name}@{snap-name}列出快照:rbd --pool {pool-name} snap ls {image-name}rbd snap ls {pool-name}/{image-name}保护快照:rbd --pool {pool-name} snap protect --image {image-name} --snap {snapshot-name}rbd snap protect {pool-name}/{image-name}@{snapshot-name}取消保护快照:rbd --pool {pool-name} snap unprotect --image {image-name} --snap {snapshot-name}rbd snap unprotect {pool-name}/{image-name}@{snapshot-name}快照克隆rbd clone {pool-name}/{parent-image}@{snap-name} {pool-name}/{child-image-name}查看快照的克隆rbd --pool {pool-name} children --image {image-name} --snap {snap-name}rbd children {pool-name}/{image-name}@{snapshot-name}
RGW对象存储
创建
cceph-deploy rgw create node-1
CephFS文件存储
创建mds服务
ceph-deploy mds create node-1 node-2 node-3 [root@node-1 ceph-deploy]# ceph osd pool create cephfs_metadata 16 16
pool 'cephfs_metadata' created
[root@node-1 ceph-deploy]# ceph osd pool create cephfs_data 16 16
pool 'cephfs_data' created[root@node-1 ceph-deploy]# ceph fs new cephfs-demo cephfs_metadata cephfs_data
new fs with metadata pool 6 and data pool 7
[root@node-1 ceph-deploy]# [root@node-1 ceph-deploy]# ceph fs ls
name: cephfs-demo, metadata pool: cephfs_metadata, data pools: [cephfs_data ][root@node-1 ceph-deploy]# ceph -scluster:id: c16b9145-7216-4058-8bfb-c9b7b2b702dehealth: HEALTH_OKservices:mon: 3 daemons, quorum node-1,node-2,node-3 (age 46m)mgr: node-1(active, since 46m), standbys: node-2, node-3mds: cephfs-demo:1 {0=node-2=up:active} 2 up:standbyosd: 3 osds: 3 up (since 2w), 3 in (since 2w)rgw: 1 daemon active (node-1)task status:scrub status:mds.node-2: idledata:pools: 7 pools, 288 pgsobjects: 213 objects, 3.5 KiBusage: 3.0 GiB used, 147 GiB / 150 GiB availpgs: 288 active+clean
内核级别挂载,性能高一点
mkdir /mnt/cephfs
[root@node-1 ceph-deploy]# mount -t ceph 172.16.10.224:6789:/ /mnt/cephfs/ -o name=admin
[root@node-1 ceph-deploy]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 3.9G 0 3.9G 0% /dev/shm
tmpfs 3.9G 8.9M 3.9G 1% /run
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/sda3 211G 1.8G 210G 1% /
/dev/sda1 1014M 141M 874M 14% /boot
tmpfs 783M 0 783M 0% /run/user/0
tmpfs 3.9G 52K 3.9G 1% /var/lib/ceph/osd/ceph-0
172.16.10.224:6789:/ 47G 0 47G 0% /mnt/cephfs
用户级别挂载
安装客户端
yum -y install ceph-fuse
mkdir /mnt/ceph-fuse
[root@node-1 ceph-deploy]# ceph-fuse -n client.admin -m 172.16.10.224:6789,172.16.10.225:6789,172.16.10.226:6789 /mnt/ceph-fuse
2020-11-17 17:54:20.511 7eff93888f80 -1 init, newargv = 0x5571a711e340 newargc=9ceph-fuse[29325]: starting ceph clientceph-fuse[29325]: starting fuse
[root@node-1 ceph-deploy]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 3.9G 0 3.9G 0% /dev
tmpfs 3.9G 0 3.9G 0% /dev/shm
tmpfs 3.9G 9.0M 3.9G 1% /run
tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/sda3 211G 1.9G 210G 1% /
/dev/sda1 1014M 141M 874M 14% /boot
tmpfs 783M 0 783M 0% /run/user/0
tmpfs 3.9G 52K 3.9G 1% /var/lib/ceph/osd/ceph-0
172.16.10.224:6789:/ 47G 0 47G 0% /mnt/cephfs
ceph-fuse 47G 0 47G 0% /mnt/ceph-fuse
OSD扩容和换盘
横向扩容增加节点
纵向扩容增加容量
root@node-1 ceph-deploy]# ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 0.14639 root default
-3 0.04880 host node-1 0 hdd 0.04880 osd.0 up 1.00000 1.00000
-5 0.04880 host node-2 1 hdd 0.04880 osd.1 up 1.00000 1.00000
-7 0.04880 host node-3 2 hdd 0.04880 osd.2 up 1.00000 1.00000
-----------------------------------
清理有分区的磁盘
ceph-deploy disk zap node-1 /dev/sdc 原理就是用dd把分区数据都刷掉
增加磁盘
ceph-deploy osd create node-1 --data /dev/sdc
增加osd会使PG移动,消耗性能,所以扩容osd需要一个一个的扩容,减少对业务的影响
查看osd延时
ceph osd perf删除osd
ceph osd out osd.5
等信息同步完再删
ceph osd crush rm osd.5
ceph osd rm osd.5
ceph author rm osd.5
RBD高级功能
创建
[root@node-1 ~]# rbd create ceph-demo/ceph-trash.img --size 10G
[root@node-1 ~]# rbd info ceph-demo/ceph-trash.img
rbd image 'ceph-trash.img':size 10 GiB in 2560 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 861f92bbad7fblock_name_prefix: rbd_data.861f92bbad7fformat: 2features: layering, exclusive-lock, object-map, fast-diff, deep-flattenop_features: flags: create_timestamp: Wed Nov 18 10:57:52 2020access_timestamp: Wed Nov 18 10:57:52 2020modify_timestamp: Wed Nov 18 10:57:52 2020
删除
[root@node-1 ~]# rbd rm ceph-demo/ceph-trash.img
Removing image: 100% complete...done.
设置回收机制
[root@node-1 ~]# rbd create ceph-demo/ceph-trash.img --size 10G
[root@node-1 ~]# rbd trash move ceph-demo/ceph-trash.img --expires-at 20201119
[root@node-1 ~]# rbd trash -p ceph-demo ls
8640e50e08fb ceph-trash.img
回收回来,防止误删除
[root@node-1 ~]# rbd trash restore -p ceph-demo 8640e50e08fb
[root@node-1 ~]# rbd -p ceph-demo ls
ceph-trash.img
rbd-demo.img
映射到本地文件系统
ceph-deploy osd create node-1 --data /dev/sdc
[root@node-1 ~]# rbd device map ceph-demo/rbd-test.img
/dev/rbd1格式化
mkfs.ext4 /dev/rbd1
mount /dev/rbd0 /media
touch test.txt
创建快照
[root@node-1 ~]# rbd snap create ceph-demo/rbd-test.img@snap_20201118
[root@node-1 ~]# rbd snap ls ceph-demo/rbd-test.img
SNAPID NAME SIZE PROTECTED TIMESTAMP 4 snap_20201118 10 GiB Wed Nov 18 11:15:23 2020
数据恢复
删除test.txt
rbd snap rollback ceph-demo/rbd-test.img@snap_20201118
rbd snap ls ceph-demo/rbd-test.img卸载之后,重新挂载
umount /media
mount /dev/rbd1 /media创建快照
[root@node-1 ~]# rbd snap create ceph-demo/rbd-test.img@template
[root@node-1 ~]# rbd snap ls ceph-demo/rbd-test.img
SNAPID NAME SIZE PROTECTED TIMESTAMP 4 snap_20201118 10 GiB Wed Nov 18 11:15:23 2020 5 template 10 GiB Wed Nov 18 11:29:21 2020 保护快照
[root@node-1 ~]# rbd snap protect ceph-demo/rbd-test.img@template
会发现无法删除了
[root@node-1 ~]# rbd snap rm ceph-demo/rbd-test.img@template
Removing snap: 0% complete...failed.2020-11-18 11:32:20.904 7f2cef31ec80 -1 librbd::Operations: snapshot is protectedrbd: snapshot 'template' is protected from removal.快照克隆
[root@node-1 ~]# rbd clone ceph-demo/rbd-test.img@template ceph-demo/vm1-clone.img
[root@node-1 ~]# rbd -p ceph-demo ls
ceph-trash.img
rbd-demo.img
rbd-test.img
vm1-clone.img使用克隆快照
rbd device map ceph-demo/vm1-clone.img
mount /dev/rbd2 /mnt 查看镜像创建了几个快照
[root@node-1 ~]# rbd children ceph-demo/rbd-test.img@template
ceph-demo/vm1-clone.img
解除复制关系
登录后复制
rbd flatten ceph-demo/vm1-clone.img
RBD导入导出
创建快照
[root@node-1 ~]# rbd snap create ceph-demo/rbd-test.img@snap-demo
[root@node-1 ~]# rbd snap ls ceph-demo/rbd-test.img
SNAPID NAME SIZE PROTECTED TIMESTAMP 4 snap_20201118 10 GiB Wed Nov 18 11:15:23 2020 5 template 10 GiB yes Wed Nov 18 11:29:21 2020 6 snap-demo 10 GiB Wed Nov 18 15:17:24 2020
[root@node-1 ~]# 导出备份
[root@node-1 ~]# rbd export ceph-demo/rbd-test.img@snap-demo /root/rbd-test.img
Exporting image: 100% complete...done.导入
[root@node-1 ~]# rbd import rbd-test.img ceph-demo/rbd-test-new.img
Importing image: 100% complete...done.导入
[root@node-1 ~]# rbd import rbd-test.img ceph-demo/rbd-test-new.img
Importing image: 100% complete...done.[root@node-1 ~]# rbd -p ceph-demo ls
ceph-trash.img
rbd-demo.img
rbd-test-new.img
rbd-test.img
vm1-clone.img
ceph RBD块存储常规操作相关推荐
- Ceph 认证授权和RBD块存储、对象存储使用(三)
RBD块存储 RBD介绍 1.RBD是Ceph分布式集群中最常用的存储类型 2.块是一个有序字节,普通的一个块大小为512字节,基于块的存储是最常见的存储方式,比如常见的硬盘.软盘和CD光盘等,都是存 ...
- Ceph存储的三种模式 部署MDS文件存储 RBD块存储 RGW对象存储
mds文件存储接口 服务端操作 1. 将监控节点制作成文件系统 我们这里是考虑到虚拟机环境,所以将监控节点制作成文件系统,生产环境中尽量不要这么做. - 在管理端admin节点操作 cd /etc/c ...
- CEPH篇 块存储、文件存储和对象存储意义和差异及ubuntu20.4下 ceph安装
理解块存储.文件存储和对象存储的应用场景和选择 应用场景 分布式存储的应用场景相对于其存储接口,现在流行分为三种: 对象存储: 也就是通常意义的键值存储,其接口就是简单的 GET.PUT.DEL 和其 ...
- k8s1.18 StorageClass 使用rbd-provisioner提供ceph rbd持久化存储
rbd-provisioner为kubernetes 1.5+版本提供了类似于kubernetes.io/rbd的ceph rbd持久化存储动态配置实现. 一些用户会使用kubeadm来部署集群,或者 ...
- 使用ceph的块存储rbd
CEPH 块设备 块是一个字节序列(例如,一个 512 字节的数据块).基于块的存储接口是最常见的存储数据方法,它们基于旋转介质,像硬盘. CD .软盘.甚至传统的 9 磁道磁带.无处不在的块设备接口 ...
- Ceph分布式存储工作原理(Ceph分布式块存储)
一.什么是块存储? 单机块设备光盘磁盘分布式块存储cephcinder ceph块设备也叫做RADOS块设备 RADOS block device : RBD 二.当集群osd节点成千上万时,管理节点 ...
- Kubernetes 基于ceph rbd生成pv
1.创建ceph-secret这个k8s secret对象,这个secret对象用于k8s volume插件访问ceph集群,获取client.admin的keyring值,并用base64编码,在m ...
- python通过librados库通过底层的rados操作ceph的对象存储和块存储
使用python语言调用原生接口(调用librados库来操作rados) 也就是下图中几种方式中的一种,就是图中的红色部分: 首先来说明一下:这个就相当于在客户端上操作ceph集群的底层对象存储ra ...
- 理解 QEMU/KVM 和 Ceph(2):QEMU 的 RBD 块驱动(block driver)
本系列文章会总结 QEMU/KVM 和 Ceph 之间的整合: (1)QEMU-KVM 和 Ceph RBD 的 缓存机制总结 (2)QEMU 的 RBD 块驱动(block driver) (3)存 ...
- 应用ceph块存储(ceph-13.2.10)
记录:334 场景:在CentOS 7.9操作系统上,部署ceph-13.2.10集群.应用ceph块设备(ceph block device):主要是创建ceph块存储.块存储分区.在线扩容.离线缩 ...
最新文章
- centos使用镜像源轻松配置golang+vscode的方法
- 把握每天的第一个钟头
- vue实战之前期准备
- linux 服务搜索顺序文件 /etc/nsswitch.conf 简介
- 别顾着学习工作,没了生活
- 配置数据库引擎BDE(Borland DataBase Engine)
- 不服来战!这才是产品汪与程序猿撕逼的正确方式
- android 360加固 例子,[原创]利用VirtualApp实现360加固的soHook简单例子
- shell函数可接受不同参数
- 集成 Tomcat、 Servlet 的生命周期
- 讲解开源项目:一步步跑起来个 Java 前后端分离的人力资源管理系统
- 淋雨量matlab,淋雨量数学模型
- IOMMU之Interrupt Remapping
- 大数据结合人工智能,助力智慧城市建设
- c语言编程车牌限行,机动车尾号限行提示器
- 人工智能的优点是什么?AI有哪些优势?
- html 图片下载浏览器默认会打开新页面预览图片解决方案
- 解决Elasticsearch集群 master_not_discovered_exception 异常
- 全息投影是计算机技术吗,全息投影技术在使用过程中要注意哪些问题?
- python的彪悍特性--自省
热门文章
- 怎么更改网络中的计算机名字,计算机名称如何更改?电脑的计算机名修改方法...
- 应届生,一口气拿下微软、Hulu、Amazon、腾讯、百度、网易、美团、华为等18家公司SP Offer面经...
- 通过内容关键词查找文件
- python 集合字典_frozenset defaultdict MD5在线加密解密工具
- 如何在windows电脑网页上创建苹果ID?
- C# 关于浏览器——WebKit篇
- thinkpad x200 bios 超级密码破解方法
- 地震观测仪器的历史和发展趋势(三)
- 障碍物参考线交通规则融合器:Frame类
- 项目经理如何做好授权管理?