GlusterFS的一次節點重置和恢復

因爲機器故障,也是爲了實驗kubernetes master的可恢復性,把服務器10.1.1.201的操做系統重作了,(使用Ubuntu18.04LTS)安裝了zfs和glusterfs,建立了/zpool本地存儲卷。服務器

一、故障現象

  • 到10.1.1.202添加10.1.1.201到gluster集羣,顯示已經加入了。
  • 在10.1.1.201添加10.1.1.201到gluster集羣,顯示失敗,沒法加入。
  • 運行 sudo gluster peer status 檢查狀態,顯示節點10.1.1.201始終是disconnected狀態。
  • 運行sudo gluster peer detach 10.1.1.201,顯示該節點有bricks沒法卸載。

看來,有點棘手。分佈式

二、恢復過程

解決思路:spa

  • 根據有限的提示信息,須要先刪除全部卷在10.1.1.201上的bricks,能夠經過gluster volume status查看。
  • 從集羣中detach掉10.1.1.201節點。
  • 從新添加10.1.1.201節點。
  • 從新添加10.1.1.201節點上的bricks到卷中。

2.1 查看bricks

sudo gluster volume status

2.2 刪除bricks

命令gluster remove-brick的格式爲:操作系統

sudo gluster volume remove-brick <VOLNAME> [replica <COUNT>] <BRICK> ... <start|stop|status|commit|force> - remove brick from volume <VOLNAME>

操做以下:.net

sudo gluster volume remove-brick gvz00 10.1.1.201:/zpool/gvz00

按照上述方法,刪除掉全部10.1.1.201節點的brick。code

  • 注意:若是該節點上的數據有用,請提早備份。

2.3 刪除節點

使用peer detach命令,格式以下:blog

sudo gluster peer detach { <HOSTNAME> | <IP-address> } [force] - detach peer specified by <HOSTNAME>

操做以下:ci

sudo gluster peer detach 10.1.1.201

2.4 添加節點

使用peer probe命令,格式以下:rem

sudo gluster peer probe { <HOSTNAME> | <IP-address> } - probe peer specified by <HOSTNAME>

2.5 添加brick

sudo gluster volume add-brick gvz00 10.1.1.201:/zpool/gvz00

2.6 查看節點狀態

sudo gluster peer status

2.7 查看卷的狀態

sudo gluster volume status

完畢。get

更多參考:

相關文章
相關標籤/搜索