先上幾張圖展現下目前Ceph存儲的大致狀況,模擬更換服務器CLIENT3上數據硬盤,ceph存儲設備已經有存放數據,觀察更換過程及恢復變化。
[root@client3 ~]# systemctl stop ceph-osd@2.service
[root@client3 ~]# umount /var/lib/ceph/osd/ceph-2服務器
[root@client3 ~]# ceph osd out osd.2
[root@client3 ~]# ceph auth del osd.2
[root@client3 ~]# ceph osd rm 2
清空磁盤信息:
[root@client3 ~]# wipefs -af /dev/sdb
磁盤變化:(刪除舊磁盤,更換新盤,虛擬機中刪除後原50G硬盤,從新添加一個80G硬盤。
此時集羣狀態
原硬盤50G更換後爲80G
[root@master ~]# cd /data/idc-cluster/
[root@master idc-cluster]# ceph-deploy osd prepare client3:/dev/sdb
存儲空間也變大了(原來爲135G,更改硬盤後存儲空間爲165G)。
數據依然存在,無變化。
CEPH集羣恢復中:
[root@BDDB cephfs]# ceph health
恢復完成:[root@BDDB cephfs]# ceph health分佈式