在建立volume的時候提示以下報錯node
[root@gluster-node1 ~]# gluster volume create testvol 192.168.11.139:/data/brick1 192.168.11.140:/data/brick2 forcevolume create: testvol: failed: /data/brick1 or a prefix of it is already part of a volumebash
找到了國外的一篇博客,據這篇博客講。從glusterfs3.3開始 ,有一個新的變化就是會檢測這個目錄是否已經加入了volume。這就致使了不少gluster支持的問題。ide
假如你移除了一個volume的brick而且繼續使用這個volume,而後從新添加以前的這個brick,這時你的文件狀態就會改變。就會形成一系列的問題。它們中的大多數會引發數據丟失。spa
假如你從新使用一個brick的話,請確保你知道本身在作什麼
翻譯
解決辦法就是:rest
setfattr -x trusted.glusterfs.volume-id $brick_path setfattr -x trusted.gfid $brick_path rm -rf $brick_path/.glusterfs
[root@gluster-node1 data]# setfattr -x trusted.glusterfs.volume-id /data/ctdb/ [root@gluster-node1 data]# setfattr -x trusted.gfid /data/ctdb/ [root@gluster-node1 data]# rm -rf /data/ctdb/. ./ ../ .glusterfs/ [root@gluster-node1 data]# rm -rf /data/ctdb/.glusterfs [root@gluster-node1 data]# service glusterd restart Starting glusterd: [肯定]
不要擔憂提示說 屬性不存在,只要它不存在,那它就處於健康的狀態
blog
最後,重啓一下glusterfs來確保它並無「記起來」舊的bricks博客
有些可能翻譯的不到位,能夠查看原文it
https://joejulian.name/blog/glusterfs-path-or-a-prefix-of-it-is-already-part-of-a-volume/class