一、刪除osd
刪除建立的osd。
數據和日誌在同一個磁盤上的osd
將osd.0踢出集羣,執行ceph osd out 0
中止此osd進程,執行systemctl stop ceph-osd@0node
而後執行:ceph osd crush remove osd.0,此時osd.0已經再也不osd tree中了ide
執行ceph auth del osd.0 和 ceph osd rm 0, 此時刪除成功可是原來的數據和日誌目錄還在,也就是數據還在日誌
此時咱們將/dev/sdd磁盤umount,而後將磁盤進行擦除那麼數據就會被徹底刪除了,執行umount /dev/sdd,而後執行ceph-disk zap /dev/sddblog
可是發現umount 不了,也沒法刪除文件夾進程
方法 rem
建立osd it
ceph-deploy osd create --data /dev/sdd node1class
由於有原來的 lvm 記錄,因此從新建立不了,提示原來的lvm有記錄集羣
記錄下 vg 序列號方法
ceph-volume lvm list
刪除vg記錄
vgremove ceph-7216ab35-9637-4930-9537-afe9f1525efa
此時sdd 出來了
在次執行建立osd
ceph-deploy osd create --data /dev/sdd node1
osd.0 in進集羣
ceph osd in osd.0