glusterfs volume create: testvol: failed: /data/brick1 or a prefix of it is already part of a volume

在建立volume的時候提示以下報錯node

[root@gluster-node1 ~]# gluster volume create testvol 192.168.11.139:/data/brick1 192.168.11.140:/data/brick2 forcevolume create: testvol: failed: /data/brick1 or a prefix of it is already part of a volumebash


找到了國外的一篇博客,據這篇博客講。從glusterfs3.3開始 ,有一個新的變化就是會檢測這個目錄是否已經加入了volume。這就致使了不少gluster支持的問題。ide


假如你移除了一個volume的brick而且繼續使用這個volume,而後從新添加以前的這個brick,這時你的文件狀態就會改變。就會形成一系列的問題。它們中的大多數會引發數據丟失。spa


假如你從新使用一個brick的話,請確保你知道本身在作什麼
翻譯

解決辦法就是:rest

setfattr -x trusted.glusterfs.volume-id $brick_path
setfattr -x trusted.gfid $brick_path
rm -rf $brick_path/.glusterfs
[root@gluster-node1 data]# setfattr -x trusted.glusterfs.volume-id /data/ctdb/         
[root@gluster-node1 data]# setfattr -x trusted.gfid /data/ctdb/ 
[root@gluster-node1 data]# rm -rf /data/ctdb/.
./          ../         .glusterfs/ 
[root@gluster-node1 data]# rm -rf /data/ctdb/.glusterfs
[root@gluster-node1 data]# service glusterd restart
Starting glusterd:                                         [肯定]

不要擔憂提示說 屬性不存在,只要它不存在,那它就處於健康的狀態
blog

最後,重啓一下glusterfs來確保它並無「記起來」舊的bricks博客


有些可能翻譯的不到位,能夠查看原文it

https://joejulian.name/blog/glusterfs-path-or-a-prefix-of-it-is-already-part-of-a-volume/class

相關文章
相關標籤/搜索