cephfs文件系統環境搭建介紹web
1、cephfs簡介。框架
cephfs是一個基於ceph集羣且兼容POSIX標準的文件系統。建立cephfs文件系統時須要在ceph集羣中添加mds服務,該服務負責處理POSIX文件系統中的metadata部分,實際的數據部分交由ceph集羣中的OSDs處理。cephfs支持之內核模塊方式加載也支持fuse方式加載。不管是內核模式仍是fuse模式,都是經過調用libcephfs庫來實現cephfs文件系統的加載,而libcephfs庫又調用librados庫與ceph集羣進行通訊,從而實現cephfs的加載。cephfs總體框架圖以下圖所示。spa
2、cephfs搭建過程。3d
ceph官方文檔上對cephfs的搭建過程描述的及其簡單且只介紹了經過ceph-deploy方式搭建mds。對於沒有使用ceph-deploy方法進行ceph集羣部署的狀況來講,就的按照下述的方法進行手動配置。orm
一、建立mds工做目錄。v8
#mkdir -p /var/lib/ceph/mds/mds.0文檔
二、修改ceph集羣的配置文件/etc/ceph/ceph.conf文件,在該文件中添加mds的相關內容。具體添加內容以下:部署
[mds]get
mds data = /var/lib/ceph/mds/mds.$idit
keyring = /etc/ceph/ceph.mds.$id.keyring
[mds.0]
host = {hostname}
三、建立mds用戶訪問key和訪問權限。
#ceph auth get-or-create mds.0 mds ‘allow’ osd ‘allow *’ mon ‘allow rwx’ > /etc/ceph/ceph.mds.0.keyring
四、使用ceph啓動腳本啓動mds服務。
#/etc/init.d/ceph start mds.0
五、查看ceph集羣中mdsmap信息。
#ceph -s
cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9
health HEALTH_OK
monmap e1: 1 mons at {a=192.168.250.58:6789/0}, election epoch 1, quorum 0 a
mdsmap e22: 1/1/1 up {0=0=up:active}
osdmap e99: 3 osds: 3 up, 3 in
pgmap v87493: 2760 pgs, 21 pools, 24935 MB data, 6292 objects
77977 MB used, 1596 GB / 1672 GB avail
2760 active+clean
看到上述mdsmap一行,就表示當前集羣中mds服務已經開啓,cephfs功能一經可用。
3、加載/卸載cephfs過程。
在這裏我作的比較簡單,就是在ceph集羣的機器上作的cephfs加載操做。若在其它客戶端進行加載的話,須要將ceph集羣配置文件ceph.conf以及訪問cephfs的用戶keyring複製到對應的客戶端。對於經過內核方式加載來講,須要內核模塊支持cephfs,對於經過fuse方式加載來講,須要手動安裝ceph-fuse這個包。
一、經過內核模塊的方式加載cephfs。
#mkdir -p /mnt/mycephfs
#mount -t ceph 127.0.0.1:6789:/ /mnt/mycephfs
以後經過mount命令就能夠看到cephfs已經成功的掛載到/mnt/mycephfs目錄下。後面就能夠和操做本地文件系統同樣操做/mnt/mycephfs目錄。
二、經過內核模塊的方式卸載cephfs。
#umount /mnt/mycephfs
三、經過fuse方式加載cephfs。
#ceph-fuse -m 127.0.0.1:6789 /mnt/mycephfs
以後經過mount命令就能夠看到cephfs已經成功的掛載到/mnt/mycephfs目錄下。後面就能夠和操做本地文件系統同樣操做/mnt/mycephfs目錄。
四、經過fuse方式卸載cephfs。
#fusermount -u /mnt/mycephfs