rbd
Ceph支持一个非常好的特性,以COW(写时复制)的方式从RBD快照创建克隆,在Ceph中被称为快照分层。分层特性允许用户创建多个CEPH RBD克隆实例。这些特性应用于OpenStack等云平台中,使用快照形式保护ceph RBD 镜像,快照是只读的,但COW克隆是完全可以写 ,可以多次来孵化实例,对云平台来说是非常有用的。
Ceph RBD镜像有format-1 和 format-2两种类型,RBD支持这两种类型,但是分层特性COW克隆特性只支持format-2镜像,默认RBD创建的镜像是format-1。(这个在克隆的时候特别重要)
modprobe rbd
如果有错误信息说明内核不支持,那你就先去升级一下内核吧~
没有则继续!
在一个ceph集群中,我们可以创建rbd块设备来进行使用。先看一下我的pool
我们这里新建了一个test的pool,以下的块设备都是建立在test这个pool中。我们看到这个test的pool是0KB的。
1首先先创建一个块设备
通过rbd create (pool_name)/(rbd_name) --size xxxxxMB就可以创建一个块设备了,这里有两个知识点。
一个是斜杠 / 前面的是这个块设备建立在的pool的名字,后面是这个块设备的名字(自己定义的),我们在test这个pool上建立了一个叫myrbd1的块设备,如果没有斜杠 / 则默认建立在rbd这个pool上(重要!!!!)
还有一个是这个size的大小,这个大小可以超过你实际pool的大小,这个叫做瘦分配,也叫超卖和按需分配。创建块之后可以通过指令rbd resize test/myrbd1 --size 51200 --allow-shrink来动态的更改。如下
2.映射改块设备到你的机器
rbd map test/myrbd1
得到块设备的映射/dev/rbd1
这个时候你就可以像操作机器上的 块设备一样操作该设备了。
3.挂载并且使用
如上,写入文件系统以后就可以挂载到目录上去啦!
然后我们 写点东西进去试试
看到了吗,我写了100M的文件进目录,ceph的test这个pool相应的使用了100M的数据,也就是对/root/test/目录的操作将会直接写到ceph集群的test这个pool中,然后写到ceph的osd上。
4.创建快照
rbd snap create --snap mysnap test/myrbd1
如上创建了一个myrbd1的 快照,快照的名字叫做mysnap,接下来我们试试快照的回滚功能。
5.回滚
上一步我们创建了一个100M的空文件
我们先删除该文件然后卸载块, 然后进行回滚。
重新挂载/dev/rbd1然后发现!!file这个文件又出来啦~~
6.模板与克隆
先看看该块设备支不支持创建快照模板
image-format 必须为2
创建改块设备也可以这样设置
rbd create test/myrbd3 --size 102400 --image-format 2
把该块做成模板,首先要把做成模板的快照做成protect(重要!!!)
rbd snap protect test/myrbd1@mysnap
(通过rbd snap unprotect test/myrbd1@mysnap可以去掉这个保护,但是这样的话就 不能克隆了)
然后可以利用这个快照来当模板来克隆了,我们克隆一个叫myrbd2的块 出来试试
先umount myrbd1这个块。
umount /dev/rbd1
然后克隆一个在test的pool的myrbd2的块。
rbd clone test/myrbd1@mysnap test/myrbd2
如上看到test这个池上有两个块设备了,一个是原来的myrbd1,一个是通过myrbd的镜像模板克隆出来的myrbd2。
接下来我们看看这个myrbd2看看和myrbd1有什么不一样。
先映射myrbd2
rbd map test/myrbd2
因为 是克隆myrbd1的,myrbd1上本来就有文件系统,所以myrbd2上也有文件系统,直接挂载就好了
看到了吗!!!!myrbd2的内容上也是和myrbd1是相同的!!!(因为是克隆来的嘛)
看一下myrbd2信息
这个时候的myrbd2还是依赖myrbd1的镜像mysnap的,如果myrbd1的mysnap被删除或者怎么样,myrbd2也不能够使用了,要想独立出去,就必须将父镜像的信息合并flattern到子镜像中,
这样myrbd2就独立于myrbd1了
可以通过如下方法删除镜像模板了
这个时候就已经删除镜像模板了。
相关阅读
作者:【吴业亮】博客:https://wuyeliang.blog.csdn.net/将rbd1导出rbd export pool/test1 /opt/test1 导入新的rbdrbd import /o
使用RBD(Rados块设备)查看存储池[root@node1~]# ceph osd lspools可以查看到0号镜像池,名字为rbd创建名为demo-img的镜像大小为1