一、RBD 回收机制

ceph RBD 默认提供回收站机制trash,也就是我们可以把块数据放在回收站,在回收站中保持一定的存储周期,当我们后期还需要使用的时候可以在回收站在拿回来。

同样,在公有云也有硬盘的回收站,作用和 RBD 回收站类似,当我们后不确定是否后期还会使用,回收站会为我们保留一定时间的周期

到期 7 天后仍未续费的云硬盘,会在回收站中保留 7 天,这期间您可以续费进行恢复。7 天后,这些云硬盘会被彻底释放,不可恢复。

回收站有两个好处

  • 可以有效的防止误删除操作 (正常情况下数据就会销毁掉了,但是有了回收站,数据是存放在回收站中)

  • 还有一种情况多发生的云存储中,例如我们的服务器忘记续费,过期后默认情况下是直接被释放了,但是有了回收站,数据就会在回收站在为我们保留一段时间

接下来我们将 rbd 文件删除,并演示如何从回收站中删除和恢复 rbd 文件

[root@ceph-01 ~]# ceph osd lspools          #首先我们查看一下我们的pool
1 abcdocker
2 .rgw.root
3 default.rgw.control
4 default.rgw.meta
5 default.rgw.log
6 default.rgw.buckets.index
7 default.rgw.buckets.data
8 cephfs_data
9 cephfs_metadata[root@ceph-01 ~]# rbd -p abcdocker ls               #这里可以找到之前创建的rbd文件
abcdocker-rbd.img#这里我们在创建一块rbd文件,为我们rbd创建一个10G的rbd块存储
[root@ceph-01 ~]# rbd create abcdocker/ceph-trash.img --size 10G        #创建名称为ceph-trash的rbd文件,大小为10G
[root@ceph-01 ~]# rbd -p abcdocker ls
abcdocker-rbd.img
ceph-trash.img#rbd文件大小
[root@ceph-01 ~]# rbd info abcdocker/ceph-trash.img
rbd image 'ceph-trash.img':size 10 GiB in 2560 objectsorder 22 (4 MiB objects)snapshot_count: 0id: 32109b54fb476block_name_prefix: rbd_data.32109b54fb476format: 2features: layeringop_features:flags:create_timestamp: Wed Mar  9 15:47:10 2022access_timestamp: Wed Mar  9 15:47:10 2022modify_timestamp: Wed Mar  9 15:47:10 2022

rbd 删除操作

默认情况下,删除 rbd 镜像文件是直接删除,没有保留到回收站。在回收站中也没有进行保留

#第一种: 直接删除,不存放到回收站
[root@ceph-01 ~]# rbd rm abcdocker/ceph-trash.img
Removing image: 100% complete...done.
[root@ceph-01 ~]# rbd -p abcdocker ls
abcdocker-rbd.img#第二种: 将RBD文件移动到回收站
[root@ceph-01 ~]# rbd trash move abcdocker/ceph-trash.img --expires-at 20220310
#trash 表示存放到回收站
#move 移动操作
#abcdocker/ceph-trash.img pool为abcdocker,rbd文件为ceph-trash.img
#--expires-at 表示释放时间,日期只可以精确到日#移动到回收站后,在正常的资源池已经看不到。但是在回收站中还可以看到
[root@ceph-01 ~]# rbd -p abcdocker ls
abcdocker-rbd.img
[root@ceph-01 ~]# rbd trash -p abcdocker ls
32142766bcf53 ceph-trash.img

rbd 回收站找回操作

前面说我们通过trash move将 rbd 文件移动到回收站,例如后面我们想把 rbd 文件找回,可以通过下面的方式进行找回操作

[root@ceph-01 ~]# rbd trash -p abcdocker ls         #查看回收站中的rbd文件
32142766bcf53 ceph-trash.img
[root@ceph-01 ~]# rbd trash restore -p abcdocker 32142766bcf53   #恢复到abcdocker pool中
[root@ceph-01 ~]# rbd trash -p abcdocker ls   #再次查看回收站中的rbd文件
[root@ceph-01 ~]# rbd -p abcdocker ls  #查看pool中的rbd文件已经恢复
abcdocker-rbd.img
ceph-trash.img

二、RBD 镜像制作快照

和云硬盘一样,RBD 也是支持快照的功能,对某个时刻的 RBD 文件进行保留生成快照。

RBD 是块存储基于文件系统上的,我们在生成快照时需要确保文件系统正常。否则生成的快照也出现损坏

云硬盘也属于块存储,和 RBD 一样支持快照。 (同时,公有云还可以定期为云硬盘做快照)

我们使用之前创建的 rbd 文件,将 rbd 挂载到本地的文件系统中,写入文件并做快照

[root@ceph-01 ~]# rbd -p abcdocker ls                       #首先查看rbd文件中的设备
abcdocker-rbd.img
ceph-trash.img[root@ceph-01 ~]# rbd device map abcdocker/ceph-trash.img   #将rbd文件挂载到本地
/dev/rbd0[root@ceph-01 ~]# mkfs.ext4 /dev/rbd0                   #格式化ceph-trash.img设备
mke2fs 1.42.9 (28-Dec-2013)
Discarding device blocks: done
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=1024 blocks, Stripe width=1024 blocks
655360 inodes, 2621440 blocks
131072 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=2151677952
80 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information:
done[root@ceph-01 ~]# mount /dev/rbd0 /mnt/                 #将/dev/rbd0设备挂载到/mnt下
[root@ceph-01 ~]# echo "i4t.com" >/mnt/abcdocker.txt       #写入测试文件查看
[root@ceph-01 ~]# cat /mnt/abcdocker.txt
i4t.com[root@ceph-01 ~]# df -h                 #df -h已经可以看到挂载点了
Filesystem            Size  Used Avail Use% Mounted on
/dev/sda3              50G  2.3G   48G   5% /
devtmpfs              1.9G     0  1.9G   0% /dev
tmpfs                 1.9G     0  1.9G   0% /dev/shm
tmpfs                 1.9G   33M  1.9G   2% /run
tmpfs                 1.9G     0  1.9G   0% /sys/fs/cgroup
tmpfs                 1.9G   24K  1.9G   1% /var/lib/ceph/osd/ceph-0
tmpfs                 1.9G   24K  1.9G   1% /var/lib/ceph/osd/ceph-3
192.168.31.20:6789:/  180G   35G  146G  20% /abcdocker
tmpfs                 380M     0  380M   0% /run/user/1000
/dev/rbd0             9.8G   37M  9.2G   1% /mnt

通过device ls可以看到镜像名称和对应的挂载点

[root@ceph-01 mnt]# rbd device ls
id pool      namespace image             snap device
0  abcdocker           ceph-trash.img    -    /dev/rbd0
1  abcdocker           ceph-test-01.img  -    /dev/rbd1
2  abcdocker           ceph-temp.img     -    /dev/rbd2
3  abcdocker           abcdocker-rbd.img -    /dev/rbd3
4  abcdocker           ceph-trash.img    -    /dev/rbd4

取消 device 映射

[root@ceph-01 new]# rbd device ls
id pool      namespace image            snap device
0  abcdocker           ceph-temp.img    -    /dev/rbd0
1  abcdocker           ceph-bak.img     -    /dev/rbd1
2  abcdocker           ceph-bak-new.img -    /dev/rbd2
[root@ceph-01 new]# rbd device unmap /dev/rbd0   #后面参数为device目录
[root@ceph-01 new]# rbd device ls
id pool      namespace image            snap device
1  abcdocker           ceph-bak.img     -    /dev/rbd1
2  abcdocker           ceph-bak-new.img -    /dev/rbd2

接下来我们创建快照,将现在的状态进行保存

[root@ceph-01 ~]# rbd -p abcdocker ls               #查看pool下的rbd文件
abcdocker-rbd.img
ceph-trash.img[root@ceph-01 ~]# rbd snap create abcdocker/ceph-trash.img@snap_test_2022-03-09             #执行快照备份
#snap为快照参数
#abcdocker为pool名称
#ceph-trash.img 为rbd文件
#@snap_test_2022-03-09为快照名称[root@ceph-01 ~]# rbd snap ls abcdocker/ceph-trash.img          #使用ls命令可以查看快照列表,以及创建时间
SNAPID NAME                 SIZE   PROTECTED TIMESTAMP4 snap_test_2022-03-09 10 GiB           Wed Mar  9 16:36:23 2022

删除快照可以通过下面的命令

[root@ceph-01 ~]# rbd snap remove abcdocker/ceph-trash.img@snap_test_2022-03-09   #格式和创建的格式相同,命令替换为remove (相当于rm)
Removing snap: 100% complete...done.
[root@ceph-01 ~]# rbd snap ls abcdocker/ceph-trash.img##如果我们镜像没有在使用了,可以通过purge直接删除所有快照
[root@ceph-01 ~]# rbd snap purge abcdocker/ceph-trash.img
Removing all snapshots: 100% complete...done.
[root@ceph-01 ~]# rbd snap ls abcdocker/ceph-trash.img

三、RBD 快照数据恢复

当我们做好备份后,后续有需求需要回滚。 可以通过下面的命令进行回滚操作。将 rbd 文件恢复到之前创建好快照的位置

#首先我们删除现在rbd挂载中的文件
[root@ceph-01 ~]# rm /mnt/abcdocker.txt
rm: remove regular file ‘/mnt/abcdocker.txt’? y
[root@ceph-01 ~]# ls /mnt/
lost+found

使用快照进行恢复

#首先我们执行rollback命令,进行数据恢复
[root@ceph-01 ~]# rbd snap rollback abcdocker/ceph-trash.img@snap_test_2022-03-09
Rolling back to snapshot: 100% complete...done.#参数解释
#snap 为快照参数
#rollback 为恢复快照
#abcdocker 为pool名称
#ceph-trash.img 为rbd文件名称
#@snap_test_2022-03-09 为快照名称(需要恢复的快照名称)

恢复完成后,文件系统不能马上识别出来,需要我们重新挂载块设备进行恢复

[root@ceph-01 ~]# umount /mnt/
[root@ceph-01 ~]# mount /dev/rbd0 /mnt/
[root@ceph-01 ~]# ls /mnt/
abcdocker.txt  lost+found
[root@ceph-01 ~]# cat /mnt/abcdocker.txt
i4t.com

四、RBD 镜像克隆

Ceph 支持为块设备快照创建许多写时复制COW克隆。快照分层使 Ceph 块设备客户端能够非常快速的创建映射。例如,我们创建一个块设备镜像,其中写入一个 Linux;然后对镜像进行快照、保护快照并创建写时克隆。快照是只读的,写入将写入到新的位置--进行快速克隆

  • 完整克隆

  • 快速克隆 (快速克隆使用的就是写时复制)

每个克隆镜像子级存储对父级镜像为引用作用,子级会读取父级别的数据

parent 代表镜像父级 Child 代表克隆的子级

COW 克隆和 Ceph 块设备完全相同,可以进行读取、写入和调整镜像大小。克隆镜像没用特殊限制。但是,写时复制克隆是指快照,因此必须在克隆快照之前对其保护

Ceph 目前只支持 format 2 镜像的克隆,内核 rbd create --image-format 2 还不支持。rbd 因此必须使用 QEMU/KVM 或者 librbd 直接访问版本中的克隆

4.1 RBD 分层概念

Ceph 块设备分层是一个简单的过程,首先我们必须创建镜像的快照,并且需要保护快照,保护完成就可以开始克隆快照

克隆的镜像有对父快照的引用,包括池 ID、镜像 ID 和快照 ID。

1.镜像模板: 块设备分层的一个常见用例是创建一个主镜像和一个用做克隆模板的快照。2.扩展模板: 提供比基础镜像更多的信息,例如用户可以克隆镜像并按照其他软件,然后对扩展镜像进行快照,该扩展镜像本身可以更新就像基本镜像一样3.模板池: 使用块设备分层的一个方法是创建一个 pool,其中包含充当模板的主镜像以及这些模板的快照。然后可以将只读权限扩展到用户,以便可以直接克隆快照,但是无法在池中写入和执行4.镜像迁移/恢复: 使用块设备分层的一个方法是将数据从一个 pool 迁移或者恢复到另一个 pool 中

4.2 RBD 快照保护

如果用户不小心删除了父快照,所有的克隆都会终端。为了防止克隆的镜像丢失,必须保护快照才可以进行克隆

[root@ceph-01 ~]# rbd create abcdocker/ceph-temp.img --size 10G   #为了掩饰数据,我们创建一个新的镜像,大小为10G
[root@ceph-01 ~]# rbd -p abcdocker ls
abcdocker-rbd.img
ceph-temp.img
ceph-trash.img

下面为镜像制作一个快照

[root@ceph-01 ~]# rbd snap create abcdocker/ceph-temp.img@temp   #创建名称为temp的快照
[root@ceph-01 ~]# rbd snap ls abcdocker/ceph-temp.img    #查看一下快照
SNAPID NAME SIZE   PROTECTED TIMESTAMP8 temp 10 GiB           Thu Mar 10 15:03:39 2022

制作完快照后,我们将快照保护起来

[root@ceph-01 ~]# rbd snap protect abcdocker/ceph-temp.img@temp   #通过protect保护[root@ceph-01 ~]# rbd snap rm abcdocker/ceph-temp.img@temp      #这里我们就可以看到,已经无法删除了
Removing snap: 0% complete...failed.
rbd: snapshot 'temp' is protected from removal.
2022-03-10 15:06:10.564 7f39f6a09c80 -1 librbd::Operations: snapshot is protected

取消保护,如果我们想取消保护,可以通过 unproject 参数

[root@ceph-01 ~]# rbd snap unprotect abcdocker/ceph-temp.img@temp

4.3 RBD 克隆快照

这会我们的父镜像已经制作好了,开始克隆子镜像

克隆可以选择 pool,可以和父镜像不在一个 pool 中

[root@ceph-01 ~]# rbd clone abcdocker/ceph-temp.img@temp abcdocker/ceph-test-01.img   #使用clone克隆参数
[root@ceph-01 ~]# rbd clone abcdocker/ceph-temp.img@temp abcdocker/ceph-test-02.img
[root@ceph-01 ~]# rbd clone abcdocker/ceph-temp.img@temp abcdocker/ceph-test-03.img
[root@ceph-01 ~]# rbd -p abcdocker ls   #查看克隆后的镜像
abcdocker-rbd.img
ceph-temp.img
ceph-test-01.img            #这里就是我们刚刚克隆完毕的
ceph-test-02.img
ceph-test-03.img
ceph-trash.img
[root@ceph-01 ~]#

挂载测试,因为里面没有数据实际上挂载的都一样

[root@ceph-01 ~]# rbd -p abcdocker ls    #查看当前rbd文件
abcdocker-rbd.img
ceph-temp.img
ceph-test-01.img
ceph-test-02.img
ceph-test-03.img
ceph-trash.img
[root@ceph-01 ~]# rbd device map abcdocker/ceph-test-01.img  #将rbd文件映射到本地
/dev/rbd1
[root@ceph-01 ~]# mkdir /mnnt   #创建挂载目录
[root@ceph-01 ~]# mkfs.ext4 /dev/rbd1   #因为我们是新建的镜像,需要做格式化操作,我们可以将格式化后的状态在做一个快照,在重新保护起来使用[root@ceph-01 ~]# mount /dev/rbd1 /mnnt
[root@ceph-01 ~]# ls /mnnt/
lost+found

4.4 RBD 取消父级

使用 flatten 取消依赖关系,此时我们在删除 temp 模板镜像,下面的 ceph-test-03 就不受影响

[root@ceph-01 ~]# rbd children abcdocker/ceph-temp.img@temp   #使用children查看当前快照下面创建的镜像
abcdocker/ceph-test-01.img
abcdocker/ceph-test-02.img
abcdocker/ceph-test-03.img[root@ceph-01 ~]# rbd flatten abcdocker/ceph-test-03.img    #执行flatten取消父级依赖,默认就会修改为完整克隆
Image flatten: 100% complete...done.

五、RBD 备份与恢复

5.1 RBD 全备

RBD 备份分为两种,一种是全备,另外一个是增量备份

全备操作 export

这里我创建一个快照,并且将快照导出成一个单独的镜像。然后我们在挂载上去使用

[root@ceph-01 mnt]# rbd -p abcdocker ls   #查看我们所有的镜像
abcdocker-rbd.img
ceph-temp.img
ceph-test-01.img
ceph-test-02.img
ceph-test-03.img
ceph-trash.img
[root@ceph-01 mnt]# rbd snap ls abcdocker/ceph-temp.img    #查看当前快照列表
SNAPID NAME SIZE   PROTECTED TIMESTAMP8 temp 10 GiB yes       Thu Mar 10 15:03:39 2022[root@ceph-01 mnt]# rbd snap create abcdocker/ceph-temp.img@bak_2022-03-10      #创建快照
[root@ceph-01 mnt]# rbd export abcdocker/ceph-temp.img@bak_2022-03-10 /root/ceph-bak.img    #执行export导出
Exporting image: 100% complete...done.

此时我们数据已经备份完毕

5.2 RBD 全量数据恢复

首先我们需要将原来的挂载点进行卸载

[root@ceph-01 mnt]# umount /mnnt   #卸载点

恢复 RBD 备份 import

[root@ceph-01 mnt]# rbd import /root/ceph-bak.img abcdocker/ceph-bak.img
Importing image: 100% complete...done.
[root@ceph-01 mnt]# rbd -p abcdocker ls
abcdocker-rbd.img
ceph-bak.img

刚刚已经在 rbd 中可以看到对应的 ceph-bak.img 文件,我们在进行挂载即可

[root@ceph-01 mnt]# rbd device map abcdocker/ceph-bak.img
/dev/rbd5
[root@ceph-01 mnt]# mount /dev/rbd5 /mnnt

针对挂载提示 rbd: map failed: (6) No such device or address 解决方案可以参考下面文章 https://www.cnblogs.com/zphj1987/p/13575352.html 或者临时解决 rbd feature disable abcdocker/ceph-bak.img object-map fast-diff deep-flatten

5.3 RBD 增量备份

对于增量备份,常用于 ceph 异地备份,或者 kvm、OpenStack 相关备份。可以减少空间占用大小 可以写成定时脚本,定时基于全备添加增量的备份

增量备份

增量备份使用的参数为export-diff

#首先我们先创建增量的快照
[root@ceph-01 ~]# rbd device map abcdocker/ceph-bak.img  #添加镜像映射
/dev/rbd1
[root@ceph-01 ~]# mount /dev/rbd1 /mnnt   #挂载
[root@ceph-01 ~]# cd /mnnt/
[root@ceph-01 mnnt]# ls
1    110  122  134  146  158  17   181  193  24  36  48  6   71  83  95
10   111  123  135  147  159  170  182  194  25  37  49  60  72  84  96
100  112  124  136  148  16   171  183  195  26  38  5   61  73  85  97
101  113  125  137  149  160  172  184  196  27  39  50  62  74  86  98
102  114  126  138  15   161  173  185  197  28  4   51  63  75  87  99
103  115  127  139  150  162  174  186  198  29  40  52  64  76  88  lost+found
104  116  128  14   151  163  175  187  199  3   41  53  65  77  89  seq
105  117  129  140  152  164  176  188  2    30  42  54  66  78  9
106  118  13   141  153  165  177  189  20   31  43  55  67  79  90
107  119  130  142  154  166  178  19   200  32  44  56  68  8   91
108  12   131  143  155  167  179  190  21   33  45  57  69  80  92
109  120  132  144  156  168  18   191  22   34  46  58  7   81  93
11   121  133  145  157  169  180  192  23   35  47  59  70  82  94

接下来为 rbd 文件添加全量备份

[root@ceph-01 mnnt]# rbd snap create abcdocker/ceph-bak.img@all_bak_2022-03-10   #创建名称为all_bak_2022-03-10的快照
[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak.img   #查看快照
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 2022
[root@ceph-01 mnnt]# rbd export abcdocker/ceph-bak.img@all_bak_2022-03-10 /root/ceph-bak_all_bak_2022-03-10.img   #导出快照
Exporting image: 100% complete...done.[root@ceph-01 mnnt]# ll /root/ceph-bak_all_bak_2022-03-10.img -h  #查看快照大小,目前快照大写10个G
-rw-r--r-- 1 root root 10G Mar 14 14:05 /root/ceph-bak_all_bak_2022-03-10.img

全量备份添加完毕后,我们在创建新数据,充当增量备份

#上面是我们之前的数据,现在我们在创建200个文件
[root@ceph-01 mnnt]# for i in `seq 200`;do touch $i.log;done

接下来做增量的备份 (增量备份恢复的时候也是要基于全量做备份)

#增量备份也是要添加快照,我们在创建一个快照
[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak.img
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 2022
[root@ceph-01 mnnt]# rbd snap create abcdocker/ceph-bak.img@new_v1   #新new_v1快照
[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak.img   #查看所有快照
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 202211 new_v1             10 GiB           Mon Mar 14 14:09:20 2022

目前all_bak_2022-03-10为全量的快照,new_v1为增量备份的快照

接下来导出快照

[root@ceph-01 mnnt]# rbd export-diff abcdocker/ceph-bak.img@new_v1 /root/ceph_new_v1.img   #导出增量备份文件
Exporting image: 100% complete...done.
[root@ceph-01 mnnt]# ls -lh /root/ceph_new_v1.img   #查看增量备份文件
-rw-r--r-- 1 root root 44M Mar 14 14:10 /root/ceph_new_v1.img

目前可以看到增量备份文件只有大概 44M,全量备份文件为 10G

对于增量备份,常用于 ceph 异地备份,或者 kvm、OpenStack 相关备份。可以减少空间占用大小

5.4 RBD 增量数据恢复

前面已经说了 RBD 的增量备份,增量备份完成我们就需要考虑如何进行增量恢复数据

首先 RBD 增量数据恢复需要安装顺序进行恢复,即 v1,v2,v3,v4 按照顺序进行恢复即如果全量数据有影响,首先恢复全量数据 在恢复增量 v1、增量 v2、增量 v3 以此类推

数据恢复可以恢复新的镜像中,也可以在原有的镜像恢复

下面我们将**6.3 RBD增量备份** 生成的.log 文件删除,然后使用import-diff命令实现增量恢复

我这里演示的是在全量数据没有受影响的情况下,只删除增量备份前的数据进行恢复

#前往挂载点,删除*.log文件
[root@ceph-01 mnnt]# rm -rf *.log

执行增量恢复

[root@ceph-01 ~]# rbd -p abcdocker ls   #确认需要恢复镜像
abcdocker-rbd.img
ceph-bak.img
ceph-temp.img
ceph-test-01.img
ceph-test-02.img
ceph-test-03.img
ceph-trash.img
[root@ceph-01 ~]# rbd snap ls abcdocker/ceph-bak.img   #查看镜像快照
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 202211 new_v1             10 GiB           Mon Mar 14 14:09:20 2022#我刚刚已经把new_v1备份前的数据删除,也就是目前是缺少new_v1的快照数据

使用import-diff恢复到 abcdocker/ceph-bak.img 镜像中

目前的文件夹

恢复的时候我们需要把快照名称删除

[root@ceph-01 mnnt]# rbd snap rm abcdocker/ceph-bak.img@new_v1
Removing snap: 100% complete...done.
[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak.img
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 2022#如果不删除快照名称,会提示我们恢复的快照已经存在
[root@ceph-01 mnnt]# rbd import-diff /root/ceph_new_v1.img abcdocker/ceph-bak.img   #执行恢复
Importing image diff: 100% complete...done.
[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak.img
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 202213 new_v1             10 GiB           Mon Mar 14 14:36:36 2022#接下来我们重新mount
[root@ceph-01 ~]# umount -lf /mnnt/
[root@ceph-01 ~]# mount /dev/rbd1 /mnnt
[root@ceph-01 ~]# cd /mnnt/

数据如下图


下面说一下如何恢复到新的镜像名称中

目前我们将 ceph-bak.img 镜像做了全备和增量备份,我们现在需要将这块镜像恢复到一个名为 ceph-bak-new.img 中

[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak.img
SNAPID NAME               SIZE   PROTECTED TIMESTAMP10 all_bak_2022-03-10 10 GiB           Mon Mar 14 14:04:33 202213 new_v1             10 GiB           Mon Mar 14 14:36:36 2022#导出文件我们依旧采用之前的
[root@ceph-01 mnnt]# ll -h /root/ceph-bak_all_bak_2022-03-10.img
-rw-r--r-- 1 root root 10G Mar 14 14:05 /root/ceph-bak_all_bak_2022-03-10.img
[root@ceph-01 mnnt]# ll -h /root/ceph_new_v1.img
-rw-r--r-- 1 root root 44M Mar 14 14:10 /root/ceph_new_v1.img

开始恢复数据,需要先恢复全量数据

[root@ceph-01 mnnt]# rbd import /root/ceph-bak_all_bak_2022-03-10.img abcdocker/ceph-bak-new.img   #恢复全备文件
Importing image: 100% complete...done.#接下来开始恢复增量备份
[root@ceph-01 mnnt]# rbd import-diff /root/ceph_new_v1.img abcdocker/ceph-bak-new.img
Importing image diff: 100% complete...done.

此时我们可以看一下新镜像的快照

[root@ceph-01 mnnt]# rbd snap ls abcdocker/ceph-bak-new.img
SNAPID NAME   SIZE   PROTECTED TIMESTAMP14 new_v1 10 GiB           Mon Mar 14 14:43:31 2022#这里只包含一个增量的备份,因为这个系统是基于全量备份,所以看不到全量的镜像

接下来我们进行映射挂载

[root@ceph-01 mnnt]# rbd device map abcdocker/ceph-bak-new.img
/dev/rbd2
[root@ceph-01 mnnt]#
[root@ceph-01 mnnt]# mkdir /new
[root@ceph-01 mnnt]# mount /dev/rbd2 /new

数据如下

我们可以看一下挂载点,数据是一模一样的

[root@ceph-01 new]# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda3        50G  2.6G   48G   6% /
devtmpfs        1.9G     0  1.9G   0% /dev
tmpfs           1.9G     0  1.9G   0% /dev/shm
tmpfs           1.9G  8.6M  1.9G   1% /run
tmpfs           1.9G     0  1.9G   0% /sys/fs/cgroup
tmpfs           1.9G   24K  1.9G   1% /var/lib/ceph/osd/ceph-0
tmpfs           1.9G   24K  1.9G   1% /var/lib/ceph/osd/ceph-3
tmpfs           380M     0  380M   0% /run/user/1000
/dev/rbd1       9.8G   37M  9.2G   1% /mnnt    #旧镜像
/dev/rbd2       9.8G   37M  9.2G   1% /new    #新镜像[root@ceph-01 new]# rbd device ls
id pool      namespace image            snap device
1  abcdocker           ceph-bak.img     -    /dev/rbd1     #旧
2  abcdocker           ceph-bak-new.img -    /dev/rbd2   #新

原文链接:https://i4t.com/5309.html

你可能还喜欢

点击下方图片即可阅读

Calico 网络策略深度解析

云原生是一种信仰 

牛批,Ceph RBD 备份与恢复完全指南相关推荐

  1. 牛批!Alibaba内部学习指南+最新面试题+学习大纲+内部学习书籍,理论与实战双管齐下!

    阿里 Android进阶小刘是我的头条号,里面会不定期更新一些Android进阶学习视频,感兴趣可以关注一下! 面试前 阿里的实习生招聘我参加了内推批次和正式批次一共两场. 阿里的内推批次和正式批次的 ...

  2. springboot做网站_Github点赞接近100k的SpringBoot学习教程+实战推荐!牛批!

    如果觉得看完文章对你有帮助记得点个赞,不要做收藏党.丢进收藏夹吃灰哦! 很明显的一个现象,除了一些老项目,现在 Java 后端项目基本都是基于 Spring Boot 进行开发,毕竟它这么好用以及天然 ...

  3. Ceph RBD:条带(stripe)详解

    文章目录 引言 条带的概念 基本概念 条带数据如何分布? 为什么要有条带? Ceph RBD如何使用条带? 条带观察实践 创建rbd image,stripe_unit为1M,stripe_count ...

  4. k8s主从自动切换mysql_K8S与Ceph RBD集成-多主与主从数据库示例

    参考文章: 感谢以上作者提供的技术参考,这里我加以整理,分别实现了多主数据库集群和主从数据库结合Ceph RDB的实现方式.以下配置只为测试使用,不能做为生产配置. K8S中存储的分类 在K8S的持久 ...

  5. k8s(十二)、分布式存储Ceph RBD使用

    前言 上篇文章介绍了k8s使用pv/pvc 的方式使用cephfs, k8s(十一).分布式存储Cephfs使用 Ceph存储有三种存储接口,分别是: 对象存储 Ceph Object Gateway ...

  6. K8S使用Ceph RBD作为后端存储

    一.准备工作 Ceph版本:v13.2.5 mimic稳定版 1.Ceph上准备存储池 [root@ceph-node1 ceph]# ceph osd pool create k8s 128 128 ...

  7. k8s1.18 StorageClass 使用rbd-provisioner提供ceph rbd持久化存储

    rbd-provisioner为kubernetes 1.5+版本提供了类似于kubernetes.io/rbd的ceph rbd持久化存储动态配置实现. 一些用户会使用kubeadm来部署集群,或者 ...

  8. 通过iscsi协议使用ceph rbd

    通过iscsi协议使用ceph rbd Ceph iscsi gatway基本框架图:   1. 常见的几种iscsi target GNU/Linux 系统中流行的 SCSI target 框架或 ...

  9. Kubernetes 基于ceph rbd生成pv

    1.创建ceph-secret这个k8s secret对象,这个secret对象用于k8s volume插件访问ceph集群,获取client.admin的keyring值,并用base64编码,在m ...

最新文章

  1. 影像组学视频学习笔记(6)-特征筛选之LASSO回归(理论)、Li‘s have a solution and plan.
  2. 用python画爱心动图_编写Python爬虫抓取暴走漫画上gif图片的实例分享
  3. mina、netty消息边界问题
  4. 广电系统三八红旗集体推荐材料_【原创】怎么把好几千字的材料压缩成500字?这些方法推荐给你!...
  5. js 获取 eWebEditor 的内容
  6. php strtotime month bug,处理PHP strtotime的BUG
  7. 好用的python学习软件_5种好用的Python工具!Python学习分析
  8. HttpWatch工具简介及使用技巧(二)
  9. 转载博客:generic netlink 编程快速入门
  10. mysql的分类有哪些_MYSQL查询所有的分类,以及每个分类下面所有的文章?
  11. 消防管件做的机器人图片_看图猜管件
  12. 集合竞价与连续竞价(开盘价、收盘价的生成)
  13. Springer出版社旗下投稿word模板
  14. 做生意要顺势而为,但不是盲目跟风
  15. 博客搬家去cnblogs
  16. Error: IMA Service Error Message -2147483647 群里解决问题收集的 (一飞出品)
  17. 安卓SO层开发 -- 编译指定平台的SO文件
  18. phpunit入门_PHPUnit入门
  19. jsp登录注册代码(增删改查+网页+数据库)
  20. 如何设置Exchange-Ecp的管理员

热门文章

  1. CCS安装失败的原因
  2. 小学计算机课活动小结,电脑教师工作小结
  3. [Unity3D] Unity3D连接安卓设备调试unity程序
  4. 获得用户输入一个整数N,计算并输出N的32次方:
  5. 功能最全面 体验更极致 小兴看看mini升级版9月19日首发
  6. 深入剖析虚拟内存工作原理
  7. twitter推文案例
  8. Vue.js devtools官网最新下载 中文,绿色版Vue.js devtools下载谷歌插件
  9. 启发式测试策略模型(Heuristic Test Strategy Model,简称HTSM)
  10. android 各国时区