mfs

mfsnode

Server1.example.com 172.25.23.1 Masterlinux

Server2.example.com 172.25.23.2 Chunkservervim

Server3.example.com 172.25.23.3Chunkserver後端

Server4.example.com 172.25.23.4 Client安全

Selinux iptables disabled 加解析 rhel6.5ssh

 

一.Master設置ide

1.安裝軟件測試

yum install -y rpm-buildui

rpmbuild -tb moosefs-3.0.80-1.tar.gzspa

wKioL1fQCZqDcu9bAABjkStbiYs083.png 

#安裝包的名稱連接成指定的,不要太死板了

rpmbuild -tb moosefs-3.0.80.tar.gz

注意:須要解決依賴性有fuse-devel zlib-devel libpcap-devel libpcap gcc

   沒有安裝包的須要本身去官網下載 pkgs.org

wKioL1fQCZ3QQ8xbAAEua74f8A0749.png 

 

wKiom1fQCaXQpj8FAAF2DhMm4m4002.png 

注意:*.cgi要加執行權限

2.啓動服務 ( 注意:不是在/etc/init.d )

wKiom1fQCaeAgblLAAEzhxDKnhw565.png 

wKioL1fQCa6AdjwiAABSEeeyHBE736.png 

# 在關閉任務的時候,最好不要kill master,安全中止執行mfsmaster stop ,不然下次啓動因metadata.mfs.back而出現問題。

error: 32 (Data mismatch)

此時沒法修復也沒法啓動 master 服務,有個應急的辦法是將 metadata.mfs.back 複製成metadata.mfs,而後再啓動 master。這樣將會丟失那些正在傳輸的數據

3.訪問

訪問:172.25.23.19425

wKioL1fQCbCR0G0-AABcS67Uu5Y687.png 

Error:加解析

wKiom1fQCbGBLBvyAAA_FhtnXjs637.png 

再次訪問

wKiom1fQCbaR-n_YAAESLt1DtgE155.png 

 

二.Chunkserver設置

1.安裝軟件

wKioL1fQCbiDGnNKAABrLzeRrEg474.png 

其中有前2個是依賴性

2.修改配置文件

wKioL1fQCbnxuji2AAAcOIt47G4568.png 

wKiom1fQCbzjVQQMAABJQlXFTHc121.png 

wKiom1fQCb6S_NryAAAYPRUBv_o908.png 

設置共享點

3.啓動服務

wKioL1fQCcWTQjchAAEd6M8OJ3Y954.png 

# 權限限制,在啓動 chunk server ,需確保用戶 mfs 有權限讀寫將要被掛接的分區(由於 chunk server 運行時要在此建立一個.lock 的文件)

wKioL1fQCcvCsV1jAAFswd_K8Zg535.png 

# 修改解析(在master的後端加上 mfsmaster

wKioL1fQCeTjYVd6AAE6YCCpDn4284.png 

4.在另一個chunkserver作相同操做(只改變共享點 /mnt/chunk2

5.訪問

wKiom1fQCe_AYCmnAAEdagpyEHM105.png 

 

三.Client端配置

1.安裝軟件

 yum install -y moosefs-client-3.0.80-1.x86_64.rpm

2.設置掛載點

 (1) vim /etc/mfs/mfsmount.cfg

/mnt/mfs   

 (2) 建立掛載點  mkdir /mnt/mfs

3.掛載 mfsmount

4.查看 df -h

wKioL1fQCfKSLl2SAACNBwKxrRQ146.png 

wKiom1fQCfeSNg10AAEw3YM6NjM816.png 

 

5.測試

/mnt/mfs建立2個目錄,並設置其文件存儲份數

a)cd /mnt/mfs

mkdir dir1 dir2

b) 設置文件存儲份數 dir12  dir21

wKiom1fQDnWjKvM_AABjPNmKgNU535.png

wKiom1fQCgvSxFiGAABi0ijvbYA956.png 

 

c)拷貝文件,查看信息

wKioL1fQCg3BCkbqAACZ_N491hA073.png

wKiom1fQChHDZOSvAAB9LhFZ8O8415.png  

d)關閉一個chunkserver( 172.25.23.3 )後,查看信息

 wKioL1fQChyzBeGoAACfHbYqaOY114.png

e)chunkserver從新啓動後,恢復正常

wKiom1fQCiHRyq8zAADS-yasDCM225.png 

 

四.恢復垃圾箱文件

1.誤刪

rm -fr /mnt/mfs/dir2/fstab

2.查看垃圾箱中文件的保留時間

wKioL1fQCiXQdBMpAAA38RsJsZ8429.png 

86400 s = 1 day

3.建立文件  /mnt/mfsmeta

4.掛載mfsmount -m /mnt/mfsmeta

   wKiom1fQCivhtWkfAAEmFcgBOJQ137.png 

5. 能夠看到有trash這個目錄

wKiom1fQCi6Dszq-AAB4Urxz9xU129.png 

cd /mnt/mfsmeta/trash

6. 找到誤刪的文件

wKioL1fQCi-wfKNqAAAXh2ksLtY340.png 

......

wKiom1fQCjDAOoU6AAATxV8EDm0025.png 

7. 將該文件移動到undel中便可

wKioL1fQCjHgRjovAABBwtkRzPg936.png 

 

五.Master安裝HA (iscsi + corosync + pacemaker)

共享存儲  server2.example.com 172.25.23.2

Master1 server1.example.com 172.25.23.1

Master2 server8.example.com 172.25.23.8

1.設置一個共享存儲iscsi

wKiom1fQCjKRdaNkAABSsGkb_aw327.png 

2.Master1master2分別進行發現,鏈接,格式化

  master2上只需安裝 moosefs-master及其相應的依賴性軟件便可

yum install -y iscsi-*

iscsiadm -m discovery -t st -p 172.25.23.2

iscsiadm -m node -l

fdisk -cu /dev/sdb

mkfs.ext4 /dev/sdb1

mount /dev/sdb1 /mnt------- 測試

chown mfs.mfs /mnt/*

umount /mnt

3.修改yum

vim /etc/yum.repos.d/rhel-source.repo------ 具體修改細節見HA

yum repolist  ----- 列出可用的包

--> 可查看到有3819可用

4.添加解析

vim /etc/hosts

172.25.23.100 mfsmaster

5.編輯啓動腳本

vim  /etc/init.d/mfsd

wKioL1fQCjaz_04uAAFfIKtega0134.png 

wKioL1fQCruijrjQAADc8CnG-SQ600.png 

wKiom1fQCsCQKMwJAABUnWkj_Nw553.png        wKioL1fQCsLhV_tKAABPF6m70qY449.png                      wKiom1fQCsOTdcFBAAApVIw2TA0852.png 

wKiom1fQCsXSkYqSAACWy44I048250.png 

chmod +x /etc/init.d/mfsd

/etc/init.d/mfsd start----- 測試啓動腳本是否正確

6.設置pacemaker

a) 安裝軟件

yum install -y pacemaker corosync crmsh pssh

b) 修改配置文件

vim /etc/corosync.conf------只修改部份內容

......

 bindnetaddr: 172.25.23.0

 mcastport: 5428

service { name: pacemaker 

 ver: 0}

/etc/init.d/corosync start

c) 設置策略

    wKioL1fQCsyjoeYlAAE8Rr9Ui-Q921.png 

分別爲:關閉fence機制;設置VIP;設置服務;設置存儲;設置資源組

    wKiom1fQCtWAfZ7HAAFbplnjWYI225.png 

7.測試

(1)crm_mon

wKioL1fQCt7Ar4rtAAFRnICaE50676.png 

(2)server8上執行

crm node standby

crm_mon

wKioL1fQCuuSsXxeAAFkn54RUis739.png 

(3)server8上再執行

crm node online

crm_mon

可發現仍工做在server1上,除非server1 standby後,才從新回到server8

(4)在查看時若出現服務啓動失敗,可作以下操做

wKiom1fQCvTSHTtWAAGQr1yoEHM992.png

相關文章
相關標籤/搜索