分佈式文件系統之GPFS

    GPFS是IBM公司經過完善和發展其Tiger Shark文件系統發展而來。GPFS經過共享磁盤結構來實現其強大的擴展性。一個GPFS系統由許多集羣節點組成,GPFS文件系統和應用程序在上面運行。這些節點經過交互網絡架構(Switch Fabric)網絡鏈接磁盤。全部節點對全部磁盤擁有相同的訪問權。文件被分割存儲在文件系統中全部的磁盤上。這種條帶化的存儲不只可以保證各個磁盤負載均衡,還可以使系統得到最高的吞吐量。html

    GPFS文件系統架構圖以下:後端

   

        將文件系統節點和共享磁盤鏈接起來的交互網絡架構(Switch Fabric)可能包含SAN網絡,例如FC和iSCSI。另外,我的本地磁盤也能夠掛載到一些I/O節點,文件系統節點經過一個運行在通訊網絡上的軟件層來對這些磁盤進行訪問,例如IBM的VSD(virtual share disk),其運行在SP網絡上,就是這樣的一個軟件層。緩存

       來自多個節點的對磁盤進行的讀和寫須要進行同步,不然用戶數據和元數據將會崩潰。GPFS採用分佈式鎖機制來同步對磁盤的訪問。爲了實現系統的高吞吐量,大文件須要進行分塊,GPFS沒有依賴額外邏輯卷管理層(logical volume manager (LVM) layer)來實現分塊,而是本身實現了分塊機制。經過實現分塊機制,GPFS得到了對容錯和負載均衡的控制。(一些LVM也有相似的功能,可是他們不可能得到網絡的拓撲)。網絡

    GPFS採用256KB(也能夠是16KB-1MB)的大數據塊做爲磁盤塊大小。當某個單線程的應用程序須要讀一個文件時,GPFS採用prefetch機制預先將文件讀到本地IO,後端採用並行IO的方式,最大限度的發揮帶寬和磁盤的優點將文件提取到本地。一樣,再也不須要的髒數據緩存也採用並行IO的方式寫到磁盤。GPFS可以識別順序,反序等讀寫模式,對於不常見的讀寫模式,GPFS提供接口傳遞prefetch命令給文件系統。架構

    GPFS也是一種日誌文件系統,爲不一樣節點創建各自獨立的日誌。日誌中記錄MetaData的分佈,一旦節點發生故障,能夠保證快速恢復數據GPFS 經過一套複雜的信令管理機制提供數據一致性,經過這套機制容許任意節點經過各自獨立的路徑到達同一個文件。即便節點沒法正常工做, GPFS 也能夠找到其它的路徑。GPFS在數據保護方面採用數據複製的方式進行,GPFS實現了一個較爲簡單的軟件RAID模式,支持數據塊級別的文件複製。
負載均衡


參考:
分佈式

1.http://www.it165.net/admin/html/201307/1485.htmlfetch

2.GPFS: A Shared-Disk File System for Large Computing Clusters
大數據

相關文章
相關標籤/搜索