cephfs文件系統環境搭建介紹

cephfs文件系統環境搭建介紹web

1、cephfs簡介。框架

cephfs是一個基於ceph集羣且兼容POSIX標準的文件系統。建立cephfs文件系統時須要在ceph集羣中添加mds服務,該服務負責處理POSIX文件系統中的metadata部分,實際的數據部分交由ceph集羣中的OSDs處理。cephfs支持之內核模塊方式加載也支持fuse方式加載。不管是內核模式仍是fuse模式,都是經過調用libcephfs庫來實現cephfs文件系統的加載,而libcephfs庫又調用librados庫與ceph集羣進行通訊,從而實現cephfs的加載。cephfs總體框架圖以下圖所示。spa


2、cephfs搭建過程。3d

ceph官方文檔上對cephfs的搭建過程描述的及其簡單且只介紹了經過ceph-deploy方式搭建mds。對於沒有使用ceph-deploy方法進行ceph集羣部署的狀況來講,就的按照下述的方法進行手動配置。orm

一、建立mds工做目錄。v8

#mkdir -p /var/lib/ceph/mds/mds.0文檔

二、修改ceph集羣的配置文件/etc/ceph/ceph.conf文件,在該文件中添加mds的相關內容。具體添加內容以下:部署

[mds]get

mds data = /var/lib/ceph/mds/mds.$idit

keyring = /etc/ceph/ceph.mds.$id.keyring

[mds.0]

host = {hostname}

三、建立mds用戶訪問key和訪問權限。

#ceph auth get-or-create mds.0 mds ‘allow’ osd ‘allow *’ mon ‘allow rwx’ > /etc/ceph/ceph.mds.0.keyring

四、使用ceph啓動腳本啓動mds服務。

#/etc/init.d/ceph start mds.0

五、查看ceph集羣中mdsmap信息。

#ceph -s


cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9

     health HEALTH_OK

     monmap e1: 1 mons at {a=192.168.250.58:6789/0}, election epoch 1, quorum 0 a

  mdsmap e22: 1/1/1 up {0=0=up:active}

     osdmap e99: 3 osds: 3 up, 3 in

      pgmap v87493: 2760 pgs, 21 pools, 24935 MB data, 6292 objects

            77977 MB used, 1596 GB / 1672 GB avail

                2760 active+clean

看到上述mdsmap一行,就表示當前集羣中mds服務已經開啓,cephfs功能一經可用。

3、加載/卸載cephfs過程。

在這裏我作的比較簡單,就是在ceph集羣的機器上作的cephfs加載操做。若在其它客戶端進行加載的話,須要將ceph集羣配置文件ceph.conf以及訪問cephfs的用戶keyring複製到對應的客戶端。對於經過內核方式加載來講,須要內核模塊支持cephfs,對於經過fuse方式加載來講,須要手動安裝ceph-fuse這個包。

一、經過內核模塊的方式加載cephfs。

#mkdir -p /mnt/mycephfs

#mount -t ceph 127.0.0.1:6789:/ /mnt/mycephfs

以後經過mount命令就能夠看到cephfs已經成功的掛載到/mnt/mycephfs目錄下。後面就能夠和操做本地文件系統同樣操做/mnt/mycephfs目錄。

二、經過內核模塊的方式卸載cephfs。

#umount /mnt/mycephfs

三、經過fuse方式加載cephfs。

#ceph-fuse -m 127.0.0.1:6789 /mnt/mycephfs

以後經過mount命令就能夠看到cephfs已經成功的掛載到/mnt/mycephfs目錄下。後面就能夠和操做本地文件系統同樣操做/mnt/mycephfs目錄。

四、經過fuse方式卸載cephfs。

#fusermount -u /mnt/mycephfs

相關文章
相關標籤/搜索