硬盤物理接口種類前端
1.用於ATA指令系統的IDE接口。windows
2.用於ATA指令系統的SATA接口。後端
3.用於SCSI指令系統的並行SCSI接口。瀏覽器
4.用於SCSI指令系統的串行SCSI(SAS)接口。安全
5.用於SCSI指令系統的IBM專用串行SCSI接口(SSA)。服務器
6.用於SCSI指令系統的而且承載於FabreChannel協議的串行FC接口(FCP)。網絡
關於存儲的基礎知識架構
1、關於HBA HBA的全稱爲Host Bus Adapter,即主機總線適配器。 a、總線適配器是個什麼東西呢? 咱們首先要了解一下主機的結構,一臺計算機內部多半由兩條總線串在起來(固然實際狀況會有不一樣,這裏只討論常見的,簡單的狀況),一條總線叫系統總線,一條叫I/O總線。系統總線上接了CPU,MEmory,cache什麼的,I/O總線上接的就是外圍設備,現現在最多見的就是PCI總線了。這兩條總線之間用橋接的芯片或者說電路鏈接起來。舉個形象的例子,就比如一個城市裏,有兩條主幹道,一條屬於行政區,一條屬於商業區,中間有個環島,將兩條主幹道鏈接到了一塊兒,系統總線就比如行政區裏的主幹道,而I/O總線就比如商業區的主幹道。系統總線和I/O總線的帶寬的單位都是以Gbyte來記,可是顯而易見的是,行政區的主幹道和商業區的主幹道相比的話,前者確定更「核心」,更寬,更順暢,設計的要求也高。 咱們知道,在向公僕部門要求服務的時候,是要有一些接口的部門和程序的,而橋接芯片的做用就是鏈接和協調兩條總線的工做的。雖然I/O總線的速度和系統總線的帶寬相比要低不少,可是好歹也是以G來計量的,而咱們知道外圍設備的速度,每每只有幾百兆,甚至幾十k而已,怎麼協調工做呢?比如賣煎餅果子攤子不能直接戳到城市主幹道上,怎麼辦?好辦,在主幹道邊上開個2000平米的小吃城,把攤子都收進去好了。那麼主機總線適配器的做用也就是這個,咱們就是要把外設組織起來,鏈接到I/O總線上去!HBA就是指Host和I/O BUS直接的一個適配器,也比如一個水管工常說的「雙通」。 b、常見的HBA有哪些呢? 好比顯卡,網卡,scsi卡,1394卡等等。我要拿出來講的就是FCHBA和ATA&IDE。咱們一般說的什麼Emulex的LP9002,什麼Qlogic的QLA2340都是FCHBA卡,就是將FibreChannel的設備和IO總線鏈接起來的適配器。ATA也是一種適配器技術,咱們PC主板上的ATA接口,就是一個磁盤適配器的對外接口,要強調的就是,ATA說的是適配器技術,IDE是說得存儲外設技術,好比咱們能夠說IDE硬盤,IDE光驅,說ATA接口,可是說IDE接口,ATA硬盤就不時那麼合適了,雖然不少狀況下,你們都習慣把他們混在一塊兒說。 描述HBA的時候,有幾個主要的規範要說一下 > 一個承上,就是說,HBA和IOBUS怎麼連,咱們常常說的PCI接口卡,就是指這個HBA卡是要插在PCI BUS上的PCIslot上的,可是如今的計算機上,不只僅只有PCI總線而已,你們碰到的時候留意。 >一個啓下,就是說HBA要和外設怎麼連,這樣的規範就不少了。 >再說HBA自己,好比帶寬,好比運行機制(protocol等),獨立處理能力等等 Tips:有時候咱們看到的一塊卡,看到的實際是一個物理的卡,有的時候其實是多個Adapter,比如一家機構,掛多個牌子,有的時候,一塊卡有兩條通道,比如一家公司,有兩套人馬。 併發
2、關於lun a、lun的概念 lun的全稱是logical unit number,也就是邏輯單元號。咱們知道scsi總線上可掛接的設備數量是有限的,通常爲6個或者15個,咱們能夠用target ID(也有稱爲scsi id的)來描述這些設備,設備只要一加入系統,就有一個代號,咱們在區別設備的時候,只要說幾號幾號就ok了。 而實際上咱們須要用來描述的對象,是遠遠超過該數字的,因而咱們引進了lun的概念,也就是說lun id的做用就是擴充了target id。每一個target下均可以有多個lun device,咱們一般簡稱lun device爲lun,這樣就能夠說每一個設備的描述就有原來的target x變成target x lun y了,那麼顯而易見的,咱們描述設備的能力加強了.就比如,之前你給別人郵寄東西,寫地址的時候,能夠寫: xx市人民大街88號 xxx(收) 可是自從高樓大廈愈來愈多,你不得不這麼寫: xx市人民大街88號火炬大廈168室 xxx (收) 因此咱們能夠總結一下,lun就是咱們爲了使用和描述更多設備及對象而引進的一個方法而已,一點也沒什麼特別的地方. b、lun是什麼東西? lun id不等於某個設備,只是個號碼而已,不表明任何實體屬性,在咱們的實際環境裏,咱們碰到的lun多是磁盤空間,多是磁帶機,或者是media changer等等. lun的神祕之處(相對於一些新手來講)在於,它不少時候不是什麼可見的實體,而是一些虛擬的對象。好比一個陣列櫃,主機那邊看做是一個target device,那爲了某些特殊須要,咱們要將磁盤陣列櫃的磁盤空間劃分紅若干個小的單元給主機來用,因而就產生了一些什麼邏輯驅動器的說法,也就是比 target device級別更低的邏輯對象,咱們習慣於把這些更小的磁盤資源稱之爲lun0,lun1,lun2....什麼的。而操做系統的機制使然,操做系統識別的最小存儲對象級別就是lun device,這是一個邏輯對象,因此不少時候被稱之爲logical device。 有人說,個人windows裏,就認到一個磁盤呀,沒看到什麼lun的說法,是否是lun=physical disk呢?回答是否認的,只要你注意,磁盤的屬性裏就能夠看到有一個lun的值,只是由於你的disk沒有被劃分爲多個存儲資源對象,而將整個磁盤看成一個lun來用,lun id默認爲零,如此而已。 咱們曾經碰到過這樣的問題,好比有人問,咱們有一個磁盤陣列,連到了兩個主機上,咱們劃分了一個lun給兩個主機認到,而後咱們想,先在操做系統將磁盤分爲兩個區,讓兩個主機分別使用兩個分區,而後再出現某一臺主機宕機以後,使用集羣軟件將該分區切換到另一個主機上去,這樣可行嗎?答案也是否認的,集羣軟件操做的磁盤單元是lun,而不是分區,因此該操做是不可行的。固然,在一些環境,通常也是一些要求比較低的環境,能夠在多個主機上掛載不一樣的磁盤分區,可是這種狀況下,其實是沒有涉及到磁盤的切換的,因此在一些高要求的環境裏,這種狀況根本就不容許存在。 還要說明的地方是,在有些廠商和有些產品的概念裏,lun id被綁定到了具體的device上,好比ibm的一些帶庫,整個帶庫只有一個target id,而後changer,tape drive被分別分配爲lun0,lun1,lun2.....,可是咱們要注意到,這只是產品作了特別設計,也是少數狀況。 c、存儲和主機的電氣獨立時代的lun的概念 還有不少新手老是把陣列裏面的磁盤和主機的內部磁盤的一些概念搞混淆了。 在磁盤陣列和磁帶庫大行其道的時代,存儲愈來愈智能化,愈來愈像一個獨立的機器,實際上存儲和主機的電氣獨立原本就是一個必然趨勢,俗話說得好,兒大要分家嘛。在存儲愈來愈重要的時代,存儲要自立門戶是必然的事。 若是咱們把存儲看成一個獨立的主機來看,理解起來就很簡單了。咱們說到lun的概念的時候,咱們就要將分爲兩個層面。一個層面就是在陣列這個機器的os識別到的範圍,一個層面就是服務器的os識別到的範圍。這兩個層面是相對獨立的,由於若是咱們把存儲看成一個主機來看,那麼它天然有本身的device, target,lun之說,而服務器也有本身的device,target,lun之說;另一方面,這兩個層面又是相互關聯的,一個陣列的控制系統,大多都有虛擬化的功能,陣列想讓主機看到什麼樣的東西,主機才能看到相應的東西。固然,服務器識別到的最小的存儲資源,就是lun級別的。那麼主機的HBA 卡看到的存儲上的存儲資源就靠主要兩個東西來定位,一個就是存儲系統的控制器(target),一個就是lun id,這個lun是由存儲的控制系統給定的,是存儲系統的某部分存儲資源。 d、lun masking,lun mapping 咱們有了獨立的磁盤陣列用了以後,服務器只要看到存儲的控制系統,就有可能使用磁盤陣列的磁盤資源,可是磁盤陣列不可能只爲某一個服務器來使用,因此他必須管制主機使用某部分磁盤資源。這個管制分爲兩個部分:一部分就是lun mapping,相似於綠色通道,就是保證服務器能看到某部分存儲資源,一部分就是lun masking,相似於警惕線,就是保證服務器只可訪問給它分配的存儲資源,而沒分配給服務器的資源,就不要染指了。 實現lunmasking和lun mapping有三種方法:一個是基於存儲控制系統來設置,一個是基於存儲交換系統來設置,一個是基於服務器os來設置。 基於存儲控制系統得設置,是比較常見的設置,好比不少磁盤陣列的控制系統,自己就能設置lun被某服務器看到。好比FastT的partition功能。 基於存儲交換系統的設置,也是一種經常使用的方法,好比常說的zoning。 基於服務器os的設置,比較少採用,通常採用安裝某些操做系統上安裝某些軟件來實現,由於這個方法全靠服務器自覺,因此比較少用,呵呵。 e、lun的multi-path 如今,存儲網絡愈來愈發達了,一個lun有多條通路能夠訪問也不是新鮮事了。 服務器使用多個HBA鏈接到存儲網絡,存儲網絡又多是由多個交換設備組成,而存儲系統又可能有多個控制器和鏈路,lun到服務器的存儲網絡鏈路又可能存在着多條不一樣的邏輯鏈路。那麼,必然的,同一個physicallun在服務器上必然被識別爲多個設備。由於os區別設備無非用的是總線,target id,lun id來,只要號碼不一樣,就認爲是不一樣的設備。 因爲上面的狀況,多路徑管理軟件應運而生了,好比emc的powerpath,這個軟件的做用就是讓操做系統知道那些操做系統識別到lun其實是一個真正的physical lun,具體的作法,就是生成一個特別的設備文件,操做系統操做這個特殊的設備文件。而咱們知道,設備文件+driver+firmware的一個做用,就是告訴操做系統該怎麼使用這個設備。那麼就是說,多路徑管理軟件從driver和設備文件着手,告訴了操做系統怎麼來處理這些身份複雜的lun。app
NAS
爲解決數據共享問題和優化文件存儲而產生的存儲技術
文件管理系統在存儲設備端,是文件服務+IP的一種技術
多應用於非結構化數據(文件),OLAP,數據共享
SAN
爲解決DAS的問題而產生的存儲技術
是DAS+網絡的一種技術
多應用與OLTP聯機交易系統
ISCSI
爲解決SAN的成本,兼容性,不易部署和管理等問題而產生的技術
是SAN +IP的一種技術,因此ISCSI也叫IP SAN
多應用於PC服務器平臺
用FC SAN與IP SAN構建系統的比較
以下圖所示,一個完整的SAN系統應用一般包括前端應用服務器、傳輸網絡、存儲設備等三部分,服務器能夠是Windows、Linux、Unix等各類系統的服務器、小型機、集羣等,傳輸網絡能夠是FC網絡、IP網絡等,而具體採用哪一種網絡及接口卡,則由這其中關鍵的存儲設備體系決定
存儲設備由前端網絡接口、控制器、後端磁盤通道,以及磁盤櫃和磁盤等構成。控制器是存儲設備的核心,它是一個處理性能的體現,且對各類協議架構都能有相應的優化處理措施,各類存儲設備之間不體現明顯的差異。 所以存儲設備的差異主要體如今前端網絡接口(IP或FC),以及後端磁盤通道(SAS或FC)上,根據先後端的搭配不一樣由此造成四種架構設備:IP+SAS、IP+FC、FC+SAS、FC+FC。通常認爲前端提供FC網絡接口、經過FC協議與應用服務器相鏈接的設備爲FC SAN設備,而IP SAN設備則指前端提供IP網絡接口、經過iSCSI協議與應用服務器鏈接的設備
FC SAN架構與IP SAN架構的比較
比較包括穩定性、性能、安全性、兼容性、擴展能力、總體擁有成本等多個方面。
SAN系統的穩定性包括應用服務器、傳輸網絡、存儲設備等多方面決定。由於服務器同樣,所以主要考慮傳輸網絡和存儲設備。 首先看影響存儲系統穩定性的一個主要部分:存儲設備後端構成。從架構上FC SAN與IP SAN在後端均可以採用FC磁盤櫃或SAS磁盤櫃,所以在具體設備中也存在FC磁盤與SAS磁盤的比較。不管是FC磁盤、SAS磁盤,它們採用的最終磁記錄方式和機械結構都是同樣的,區別只是在於提供的接口是FC口仍是SAS口(這裏的FC口是指支持FC協議的電接口,並非指採用光纖鏈接),從各硬盤盤生產廠商提供的硬盤MTBF能夠看出,15K轉速的FC磁盤和SAS磁盤是同樣的(1600000小時),所以在磁盤櫃上各類架構的穩定性、可靠性是一致的,但採用SAS盤櫃的設備具備更大的後端帶寬,能夠更好地支持數據的突發讀寫。
再看前端的傳輸網絡,FC SAN採用FC交換機組網,IP SAN則採用以太網交換機及路由器組網,而在傳輸介質上均可以採用光纖。FC協議自己是解決機櫃內磁盤之間的鏈接而出現的技術,在路由協議上支持不豐富,在組建大型網絡時,FC網絡採用主交換機選擇方式爲其餘交換機分配地址塊,這會存在網絡的單點故障(主交換機單點),以及交換機加入網絡時進行主交換機選擇引發的網絡震盪致使SCSI的超時中斷,從而帶來網絡的穩定性隱患問題。而IP網絡採用的分佈式架構和豐富的路由協議則不存在這方面的問題,這已經獲得各類規模網絡的充分驗證。在網絡設備上,FC交換機與IP交換機都有各類冗餘、可靠的設計,但IP交換機的性價比會更高。
所以兩種架構在存儲記錄架構和介質上穩定性是一致的,而在傳輸網絡上,若是構建大型網絡IP架構具備更好的穩定性,固然在小型SAN的構建中這兩種技術的穩定性也基本是一致的。
性能(帶寬和效率)
傳輸性能實際包括了傳輸帶寬和傳輸效率兩方面。
iSCSI協議是SCSI Over在IP,其底層的協議層都是利用的現有IP網的,在硬件上兼容如今的網卡、網線、以太網交換機等設備,目前以太網的主流速度是GE和10GE,並且GE能夠經過捆綁實現帶寬成倍數的增加;FC協議則是SCSI Over FC,主流速度爲4Gb。從帶寬上看, GE的捆綁技術、10GE的商用使iSCSI協議具備明顯的優點。
從效率方面來看,iSCSI是創建在TCP協議之上。TCP報文的通常長度爲1500字節,其中包括54字節的報文頭(14字節以太網頭+20字節IP頭+20字節的TCP頭),iSCSI有效的報文傳輸效率爲(1500-54)/1500=96.4%。IP存儲產品支持巨幀,也就是支持9000字節的幀,那麼此時的報文有效傳輸效率爲(9000-54)/9000=99.4%
FC協議的最大幀長度爲2048字節,其中包括36字節的控制字節(4字節起始標誌SOF+4字節結束標誌EOF+4字節CRC校驗+24字節幀頭),FC有效的報文傳輸率爲(2048-36)/2048=98.2%。
由上述比較可知,FC和IP的傳輸效率差異並不大。若是採用IP巨幀的狀況下,IP的傳輸效率比FC更高。
安全性
在保證數據安全方面,FC SAN的安全性及措施主要在於其單獨建設網絡,與現有IP網絡隔離。在FC的分層協議中,定義經常使用服務的FC-3層,主要用於保障數據安全,好比數據加密和壓縮等,可是因爲FC是工做在第二層的協議,並無用到第三層的功能,所以到今天,也沒有在協議中創建相應的安全機制以及安全通用協議,所以從協議完善性看FC自己存在安全手段的缺少(特別是在iSCSI大規模應用競爭以後,FC才發現還缺少這方面的考慮和技術)。
對於IP SAN而言,若是與其餘數據網絡隔離進行存儲網絡的單獨建設,也具備一樣的安全性。並且IP協議中定義的各類成熟的安全機制和技術均可以用來保證數據安全的傳送,好比×××、IPSec等。另外,IP網絡中的VLAN、×××、CHAP認證機制等,也能夠用於避免服務器和存儲之間的非法訪問,保證數據安全。
兼容和擴展性
FC的標準化程度遠遠落後於IP,兼容性是一個難以解決的難題。
FC協議與現有的以太網是徹底異構的,二者不能相互接駁。所以光纖通道是具備封閉性的,並且不只與現有的企業內部網絡(以太網)接入,也與其餘不一樣廠商的光纖通道網絡接入(因爲廠家對FC標準的理解的異樣,FC設備的兼容性是一個巨大的難題)。所以,對於之後存儲網絡的擴展因爲兼容性的問題而成爲了難題。
FC協議與現有的以太網是徹底異構的,二者不能相互接駁。所以光纖通道是具備封閉性的,並且不只與現有的企業內部網絡(以太網)接入,也與其餘不一樣廠商的光纖通道網絡接入(因爲廠家對FC標準的理解的異樣,FC設備的兼容性是一個巨大的難題)。所以,對於之後存儲網絡的擴展因爲兼容性的問題而成爲了難題。
因爲參與核心技術開發的廠商少,使FC協議的完善大大滯後於市場須要。到今天爲止,主要的三、4家FC交換機的供應商仍然沒法將各自的FC交換機互聯,更不用說級聯、堆疊這樣的複雜應用。FC的主機通道卡(HBA)、FC交換機、FC存儲設備分屬不一樣陣營,加上不一樣的主機操做系統差別,使FC SAN的創建過程充滿了標準衝突,絕大多數部署和管理過FC-SAN的用戶都深切體會到FC-SAN的複雜、難以管理和兼容性差。所以,FC行業的封閉性,使得不少從業廠商將產品視爲套牢用戶數據的圈套。在用戶初次採購設備後,大量的後續數據管理,如擴容、升級、備份、遠程容災等,都限制在本廠商產品範圍內選擇。
IP技術是目前使用最多的網絡數據傳輸協議,其標準性和開放性早已成爲共識。所以基於IP技術的IP存儲協議ISCSI在互聯互通方面有着先天優點,不存在任何兼容性問題。微軟2003年同年,宣佈對iSCSI技術的免費支持,全部驅動內置到Windows操做系統,可免費下載。以Intel爲表明的業內十多家重量級硬件公司也紛紛宣佈支持iSCSI技術。基於iSCSI協議構建的IP存儲,已嶄露頭角,成爲新一代存儲系統的標準,成爲IT新時代圍繞IP技術進行的網絡與存儲融合的標誌性技術。
靈活和適應性
從網絡的適應性和靈活性而言,IP協議已經創建了完善的流量控制和容錯機制,可以在各類環境下,實現高效的數據傳輸。
流量控制機制對網絡的適應性方面:FC採用基於信用的流量控制機制下降了網絡的利用率;iSCSI的流量控制機制對網絡的適應性更好,尤爲在網絡傳輸延遲較大的網絡中。
超時重發機制的靈活性方面:FC使用的是靜態的超時重發機制,不會根據網絡的狀況動態地加以改變,所以發送方可能過早或過遲地出現超時,這對改善網絡的綜合性能不利;iSCSI能夠動態地自適應於網絡的當前狀況,改善存儲傳輸的性能。
由於IP具備良好的網絡適應性和靈活性,所以在理論上傳輸距離能夠不受限制。而FC通常只限於近距離的傳輸,若是要實現遠距離的傳輸,通常要經過協議轉換器,轉換成IP協議再進行傳輸
管理和維護
從網絡管理和維護的角度來看,IP比FC具備明顯的優點
運行FC協議的光網絡,其技術難度至關大,管理採用了專有的軟件,須要專門的管理人員,人員培訓費用高昂、從技術市場也不容易得到。TCP/IP網絡的知識經過這些年的普及,已有大量的網絡管理人才,管理人員的成本較低。此外,因爲支持TCP/IP的設備對協議的支持一致性好,即便是不一樣廠家的設備,其網絡管理方法也是基本一致的,這就進一步下降了管理和維護的難度。
總體擁有成本
若是創建FC SAN,用戶須要建設一張新的FC存儲網絡,併購置相應的FC交換機和HBA卡,而且要培養專門的管理和維護人員。
若是創建IP SAN,ISCSI存儲系統能夠直接在現有的網絡系統中進行組建,並不須要改變網絡體系,也不須要購買專門的交換機和HBA卡。若是運用交換機來鏈接存儲設備,對於須要增長存儲空間的企業用戶來講,只須要增長存儲設備就可徹底知足。此外,IP網絡的管理和維護成本也遠低於FC網絡。
所以,從總體擁有成原本看,IP SAN要遠遠優於FC SAN。
NAS被定義爲一種特殊的專用數據存儲服務器,包括存儲器件(例如磁盤陣列、CD/DVD驅動器、磁帶驅動器或可移動的存儲介質)和內嵌系統軟件,可提供跨平臺文件共享功能。NAS一般在一個LAN上佔有本身的節點,無需應用服務器的干預,容許用戶在網絡上存取數據,在這種配置中,NAS集中管理和處理網絡上的全部數據,將負載從應用或企業服務器上卸載下來,有效下降總擁有成本,保護用戶投資。
NAS自己可以支持多種協議(如NFS、CIFS、FTP、HTTP等),並且可以支持各類操做系統。經過任何一臺工做站,採用IE或Netscape瀏覽器就能夠對NAS設備進行直觀方便的管理。
SAN 和NAS的區別:
SAN是一種網絡,NAS產品是一個專有文件服務器或一個只讀文件訪問設備。
SAN是在服務器和存儲器之間用做I/O路徑的專用網絡。
SAN包括面向塊(iSCSI)和麪向文件(NAS)的存儲產品。
NAS產品能經過SAN鏈接到存儲設備
NAS的優勢
第一,NAS適用於那些須要經過網絡將文件數據傳送到多臺客戶機上的用戶。NAS設備在數據必須長距離傳送的環境中能夠很好地發揮做用。
第二,NAS設備很是易於部署。可使NAS主機、客戶機和其餘設備普遍分佈在整個企業的網絡環境中。NAS能夠提供可靠的文件級數據整合,由於文件鎖定是由設備自身來處理的。
第三,NAS應用於高效的文件共享任務中,不一樣的主機與客戶端經過文件共享協定存取NAS上的資料,實現文件共享功能,例如UNIX中的NFS和Windows NT中的CIFS,其中基於網絡的文件級鎖定提供了高級併發訪問保護的功能。
底層的協議
有人認爲,NAS與SAN的本質區別在於以太網與FC,二者的命運繫於TCP/IP協議。SAN採用的是FC上的SCSI傳輸。iSCSI做爲溝通了IP與SCSI(已經成熟用於FC上)的新協議,被看做影響SAN命運的一件大事。這些本質區別是從網絡架構來講的,對於許多關注NAS與SAN性能差異的用戶來講,二者的本質差異還存在於文件讀寫實現上。
NAS採用了NFS(Sun)溝通Unix陣營和CIFS溝通NT與Unix,這也反映了NAS是基於操做系統的「文件級」讀寫操做,訪問請求是根據「文件句柄+偏移量」得出。句柄是比進程還要小的單元,一般用做進程之間通訊、資源定位等。SAN中計算機和存儲間的接口是底層的塊協議,它按照協議頭的「塊地址+偏移地址」來定位。從這點說,SAN天生具備存儲異構整合的存儲虛擬化功能。下面咱們介紹一下NAS文件共享的靈魂——NFS和CIFS。
NFS(網絡文件系統)是Unix系統間實現磁盤文件共享的一種方法,支持應用程序在客戶端經過網絡存取位於服務器磁盤中數據的一種文件系統協議。其實它包括許多種協議,最簡單的網絡文件系統是網絡邏輯磁盤,即客戶端的文件系統經過網絡操做位於遠端的邏輯磁盤,如IBM SVD(共享虛擬盤)。現通常在Unix主機之間採用Sun開發的NFS(Sun),它可以在全部Unix系統之間實現文件數據的互訪,逐漸成爲主機間共享資源的一個標準。相比之下,SAN採用的網絡文件系統,做爲高層協議,須要特別的文件服務器來管理磁盤數據,客戶端以邏輯文件塊的方式存取數據,文件服務器使用塊映射存取真正的磁盤塊,並完成磁盤格式和元數據管理。
CIFS是由微軟開發的,用於鏈接Windows客戶機和服務器。通過Unix服務器廠商的從新開發後,它能夠用於鏈接Windows客戶機和Unix服務器,執行文件共享和打印等任務。它最先的由來是NetBIOS,這是微軟開發的在局域網內實現基於Windows名稱資源共享的API。以後,產生了基於NetBIOS的NetBEUI協議和NBT(NetBIOSOVER TCP/IP)協議。NBT協議進一步發展爲SMB(Server Message Block Potocol)和CIFS(Common Internet File System,通用互聯網文件系統)協議。其中,CIFS用於Windows系統,而SMB普遍用於Unix和Linux,二者能夠互通。SMB協議還被稱做LanManager協議。CIFS可籍由與支持SMB的服務器通訊而實現共享。微軟操做系統家族和幾乎全部Unix服務器都支持SMB協議/SMBBA軟件包。
但最近的消息有點不妙—微軟已經在Exchange等關健應用中撤消了對CIFS協議的支持。微軟在其網站上稱,CIFS協議要求數據經過客戶的網絡設備,容易形成性能瓶頸。此舉遭到業內人士抨擊。
SAMBA開放源代碼軟件的開發者之一傑里米稱,對Linux的恐懼感和試圖利用其在桌面操做系統方面的優點保護Windows服務器操做系統的銷售是微軟拒絕CIFS協議的真正緣由。Network Appliance公司(NAS設備主要生產商之一)也曾表示,微軟的這一措施是「不理智和貪婪的」。