第八章 Hyper-V 2012 R2 故障轉移羣集

和終端用戶相比,企業用戶對於業務的連續性和可靠性更爲在乎。相對而言,企業通常不會將追逐單一硬件的性能排在第一位。 ios

如何衡量業務是否持續可用,通常使用"x 個 9"這種方式來定義。如咱們常說的"3 個 9",即表示年可用性爲 99.9%,也即意味着一年只能有 8.76 個小時的系統停機時間。對於單臺物理服務器而言,這意味着該設備一年內不能出現硬件損壞的狀況,不然更換配件和從新上架的時間過長,很容易致使可用性等級超出這個標準。 算法

像"5 個 9",甚至"6 個 9"這種高可用性是如何實現的呢?可想而知,經過單臺物理服務器來實現這種目標將是很是苛刻且成本高昂的。 數據庫

常見的可用性與相應的可容許停機時間如表 8-1 所示。 緩存

可用性% 安全

每一年可停機時間 服務器

每個月可停機時間 網絡

每週可停機時間 架構

99% 運維

3.65 工具

7.20 小時

1.68 小時

99.50%

1.83

3.60 小時

50.4 分鐘

99.80%

17.52 小時

86.23 分鐘

20.16 分鐘

99.90%

8.76 小時

43.8 分鐘

10.1 分鐘

99.95%

4.38 小時

21.56 分鐘

5.04 分鐘

99.99%

52.56 分鐘

4.32 分鐘

1.01 分鐘

99.999%

5.26 分鐘

25.9

6.05

99.9999%

31.5

2.59

0.605

99.99999%

3.15

0.259

0.0605

8-1 可用性與停機時間簡表

爲了知足企業對業務持續可用的追求,下降年故障停機時間,系統、網絡、存儲各大廠商都引入了"羣集"的概念。"羣集"的做用是經過多臺硬件同時運行來實現的,當故障發生時,經過快速且自動化的切換故障服務器,從而實現業務的持續運行。和傳統的硬件故障或網絡故障發生後,須要人爲參與排障不一樣的是,羣集技術是不須要人爲參與的,能夠作到全自動運行。當故障發生時第一時間轉移故障節點,從而極大限度的提高業務持續可用的能力。

Windows Server 2012 R2 做爲新一代的 Cloud OS,其 Hyper-V 角色天然也擁有"羣集" 的能力。Windows 下的羣集技術被稱之爲"故障轉移羣集",Hyper-V 角色的故障轉移羣集目的很明確:當羣集內某一臺 Hyper-V 主機出現故障沒法提供服務時,可由羣集內的其餘主機快速接管任務,繼續爲用戶提供持續可用的服務。

在介紹微軟私有云以前,必須對微軟的故障轉移羣集有深刻的瞭解,它屬於微軟私有云實現高可用性的核心技術。

8.1 故障轉移羣集簡介

8.1.1 故障轉移羣集功能

故障轉移羣集(Failover Cluster)是 Windows Server 下的羣集技術的全稱。它指的是一組協同工做的獨立服務器,經過物理鏈路和軟件進行鏈接,以相應的技術手段來實現更好的服務可用性:當羣集內某一臺物理服務器出現故障時,另外一臺服務器開始接管故障服務器的服務(此轉移的過程被稱爲故障轉移過程)。羣集角色會主動監測羣集內的主機工做是否正常,經過故障轉移,最終用戶所能感知到的停機時間將會很是短暫。儘管羣集多數是由兩臺以上的獨立服務器組成,但在邏輯上,它們被認爲是一個緊密的總體。

故障轉移羣集在 Windows Server 下是一項覆蓋面很廣的技術,其不只能夠提高 Hyper-V 的服務可用性,還能夠將如下幾個重要角色添加到故障轉移羣集中:

  • DFS 命名空間服務器:命名空間是一個組織中文件共享的虛擬視圖。當用戶查看命名空間時,共享看似駐留於單個硬盤中。用戶無需瞭解承載數據的服務器名稱或文件共享,便可導航命名空間。
  • DHCP 服務器:DHCP 服務器自動提供客戶端計算機和其餘基於 TCP/IP 並具備有效 IP 地址的網絡設備。
  • 虛擬機:虛擬機是在物理計算機上運行的虛擬化的計算機系統。多個虛擬機可運行在同一臺計算機上。關於虛擬機的故障轉移羣集也是本書的重點之一。
  • Hyper-V 副本代理:故障轉移羣集可使用 Hyper-V 副本代理加入具備 Hyper-V 副本的虛擬機複製。每一個故障轉移羣集上只能配置一個 Hyper-V 副本代理。經過Hyper-V 副本代理,使得 Hyper-V 副本能夠在故障轉移羣集中使用。
  • 文件服務器:文件服務器的羣集能夠爲用戶提供基於文件共享的高可用實例。
  • 通用服務、腳本、應用程序:能夠將本不是用於在故障轉移羣集中運行的服務、腳本、應用程序配置高可用性。
  • Exchange 服務器:在早期的 Exchange 中,如 Exchange2007,即採用的故障轉移羣集技術,最新的 Exchange2010 2013 所採用的 DAG 技術則採用了故障轉移羣集組件提供的有限的一部分羣集功能。DAG 使用羣集數據庫、羣集心跳(Cluster heartbeat)及文件共享見證(File Share WitnessFSW)功能
  • SQL ServerSQL Server 是一套數據庫系統,經過故障轉移羣集,可爲 SQL Server 帶來高可用性,使用戶免遭服務中斷的影響。

8.1.2 什麼是高可用性

高可用性(High_Availability)簡稱 HA,其不限制具體採用的技術,只要利用到了"未雨綢繆"的設計思想,均算是高可用性的一種。如正常的系統備份、硬件級別的離線冷備份、硬件級別在線熱備份、異地災備、軟件羣集技術,這些均算是高可用性的範疇內。惟一不一樣

的是,因爲所採用的技術不一樣,其所提供的可用性級別不一樣,出現故障時的轉移時間不一樣。

8.1.3 故障轉移羣集優點

故障轉移羣集的優勢正如其名稱同樣,經過轉移故障,爲最終用戶帶來自動化的,中斷時間相對較短的高可用性。總的來講,故障轉移羣集能夠實現如下幾個目標:

  • 適應計劃內的停機維護,經過故障轉移羣集,能夠在設定的時間範圍內對羣集內的一部分服務器進行停機維護,同時能夠保障業務的連貫性。使用故障轉移羣集,能夠在白天進行一些維護工做,而無需等到夜深人靜時加班去作這些操做。
  • 減小計劃外的停機時間,故障轉移羣集經過自有的算法機制,自動接管意外停機服務器上的服務,減小因爲硬件或軟件的故障形成的停機,對業務連貫性的影響,維護整套系統的高可用性。

由此能夠看出,故障轉移羣集是一種爲提供更高可用性而存在的技術。在 Windows Server 2012 R2 中,故障轉移羣集支持最多 64 個節點,而在 Windows Server 2008 R2 中,僅僅支持 16 個節點。在數據中心愈來愈龐大的今天,16 個節點的限制顯然是捉襟見肘的,要知足用戶的需求,升級系統勢在必行。同時,在 Windows Server 2012 R2 中,每一個羣集中的最大虛擬機數量也從 Windows Server 2008 R2 中的 1000 個提高到了 8000 個。

8.1.4 故障轉移羣集的缺點

故障轉移羣集能夠爲企業帶來更高的可用性,相應的,爲了搭建故障轉移羣集須要付出一部分代價方可實現。

  • 相對較低的資源利用率,因爲但願當故障發生時,能夠有備用的服務器隨時轉移故障,接管服務,所以羣集內的全部服務器不可能會滿負荷運行,至少要預留一部分資源,以完成可能會發生的故障轉移的操做。
  • 增長響應時間,因爲最終用戶不是直接和目標服務器通訊,而是由一套羣集機制來負載和分流,所以對於維護故障轉移羣集自己,這須要消耗一部分系統資源去實現,相應的,會增長一些系統響應時間。
  • 額外的成本,因爲使用故障轉移羣集須要投入冗餘的硬件成本和共享存儲,所以在設備投資上會超越非高可用架構的設計規劃。
  • 相對較高的技術要求,因爲使用了冗餘的架構設計,所以須要 IT 管理人員的知識面要更加普遍。

8.1.5 故障轉移羣集的網絡要求

故障轉移羣集要求網絡存在冗餘,通常實際部署中,單臺物理服務器會使用兩條網線,其中一條接入生產網絡,另一條做爲心跳線(heart line),爲羣集之間互相驗證存活的手段。須要注意的是,心跳線在 Windows Server 2012/2012 R2 中並非必要條件。故障轉移羣集建議的是網絡鏈路的"最好"存在冗餘,至於冗餘的線路是承載生產網絡仍是單純做爲心跳使用,並無嚴格要求。

若是但願業務可以很好的分層處理,在規劃服務器虛擬化或微軟私有云之初,就須要對故障轉移羣集的網絡部分進行統籌設計。任何方案都相似,當架構成型後,再作架構方面的變更,就會牽扯到不少環節,繼而有可能影響業務的持續可用。

8.2 搭建共享存儲服務器

若是但願使用故障轉移羣集,則必需要爲故障轉移羣集準備共享存儲,共享存儲可使用直連存儲、iSCSI 存儲、光纖存儲中的一種。關於三種存儲的優缺點,以及所採用的硬盤所帶來的性能差別可參考本書前面的章節。若是企業預算緊張或在測試環境中但願對羣集的功能進行驗證,則可使用 Windows Server 2012 R2 自帶的角色功能來搭建"iSCSI 目標服務器"。

8.2.1iSCSI 目標服務器的優點

做爲 Windows Server 2012 起自帶的一項系統功能,"iSCSI 目標服務器"最大的優點是搭建簡單,應用方便。在 Windows Server 2008 R2 時代,若是但願搭建虛擬化的共享存儲,通常會採用"Openfiles"的類 Linux 操做系統來實現,Openfiles 配置共享存儲的操做步驟較多,設置選項也較爲複雜,相比咱們熟知的 Windows Server 系統,其部署難度和管理難度都超出預期。Windows Server 2012 R2 提供了簡便快捷的"iSCSI 目標服務器",將部署和運維共享存儲的難度進一步下降。

另外一方面,Windows Server 2012 R2 中"iSCSI 目標服務器"所生成的存儲格式爲 vhd 或 vhdx,在 Windows Server 2012/2012 R2 操做系統中,這種文件格式極易被編輯和拷貝、增減、維護。這一點也是該功能的顯著優點。

8.2.2 安裝 iSCSI 目標服務器角色

爲了使用"iSCSI 目標服務器"來模擬 iSCSI 共享存儲,首先須要爲目標服務器添加"iSCSI 目標服務器"角色。若是但願保證"iSCSI 目標服務器"的性能,建議最好在物理服務器上安裝此角色。若是爲了驗證功能,不考慮性能,則能夠在虛擬化環境中搭建。在繼續進行下面的操做以前,須要簡單理解三個概念:

  • iSCSI 目標服務器:爲其餘計算機提供 iSCSI 存儲的服務器,角色性質相似於FTP/HTTP,以對外提供服務爲主要特徵。
  • iSCSI 發起程序:鏈接 iSCSI 目標服務器的客戶端信息,能夠爲 IP 地址、MAC 地址、DNS 名稱等。
  • iSCSI 目標:iSCSI 目標是 iSCSI 發起程序的集合,一個 iSCSI 目標能夠包含多個而且不一樣種類的發起程序。iSCSI 目標對應的主機能夠是 iSCSI 目標服務器,也能夠是 iSCSI 發起程序所在的主機。

第 1 步,登陸 hv4.contoso.com 這臺計算機,本地登陸或遠程桌面登陸都可。依次點擊打開"服務器管理器"→"儀表盤"→"添加角色和功能"。如圖 8-1 所示。

8-1 添加角色和功能

第 2 步,彈出"添加角色和功能嚮導",在"開始以前"對話框中,點擊"下一步"以繼續安裝。如圖 8-2 所示。

8-2 開始以前

第 3 步,在"安裝類型"對話框中,選擇"基於角色或基於功能安裝",點擊"下一步",如圖 8-3 所示。

8-3 安裝類型

第 4 步,在"服務器選擇"對話框中,選擇"從服務器池中選擇服務器",點選 hv4.contoso.com,點擊"下一步",如圖 8-4 所示。如以前經過"添加要管理的其餘服務器" 整合了多臺服務器,則此處能夠看到服務器列表,須要手動予以選擇。

8-4 服務器選擇

第 5 步,在"服務器角色"對話框中,依次展開"文件和存儲服務"→"文件和 iSCSI 服務",點選"iSCSI 目標服務器",如圖 8-5 所示,點擊"下一步"繼續。

8-5 服務器選擇

第 6 步,在"功能"對話框中,無需勾選任何選項,直接點擊"下一步",如圖 8-6 所示。

8-6 功能選擇

第 7 步,在"確認"對話框中,勾選"若是須要,自動從新啓動目標服務器",點擊"安裝",稍等片刻即會安裝成功。如此時系統存在掛起的任務,則服務器可能會從新啓動,如圖 8-7 所示。

8-7 確認功能,並開始安裝

8.2.3 建立 iSCSI 虛擬磁盤

完成"iSCSI 目標服務器"的角色安裝後,即開始建立 iSCSI 虛擬磁盤的操做。

第 1 步,打開"服務器管理器",於列表左側依次點擊"文件和存儲服務"→"iSCSI",在 iSCSI 虛擬磁盤對話框中,點擊藍色斜體字部分(若要建立 iSCSI 虛擬磁盤,請啓動"新建 iSCSI 虛擬磁盤嚮導"),如圖 8-8 所示。

8-8 進入"新建 iSCSI 虛擬磁盤嚮導"

第 2 步,在"新建 iSCSI 虛擬磁盤嚮導"中,於"iSCSI 虛擬磁盤位置" 對話框點擊存儲位置的"按卷選擇",選中此例中的 F 盤,能夠看到該磁盤下還有 172G 空間,默認 iSCSI 虛擬磁盤保存在選定卷的\iSCSIVirtualDisk 目錄中,如圖 8-9 所示,點擊"下一步"繼續,配置 iSCSI 虛擬磁盤的名稱,便於識別便可。

8-9 定義虛擬磁盤位置

第 3 步,在"iSCSI 虛擬磁盤大小"對話框中,爲了得到更好的存儲性能,選擇"固定大小"選項,關於固定大小、動態擴展、差別磁盤的優缺點,可參考本書前面的章節。這裏同時輸入的還有虛擬磁盤的空間大小,此處輸入 140G。只要輸入的大小不超過物理磁盤的實際大小便可,如圖 8-10 所示,點擊"下一步"繼續。

8-10 定義虛擬磁盤位置

第 4 步,在"iSCSI 虛目標"對話框中,點擊"新建 iSCSI 目標"按鈕,並點擊"下一步",如圖 8-11 所示。

8-11 定義虛擬磁盤位置

第 5 步,在"添加發起程序 ID"對話框中,此處有三種選項可選:分別是"查詢發起程序計算機 ID"、"從目標服務器上的發起程序緩存中選取"、"輸入選定類型的值",如圖 8-12 所示。

8-12 添加發起程序 ID 的三種方式

第 6 步,選擇"查詢發起程序計算機 ID",並點擊右側的瀏覽按鈕,會彈出選擇計算機對話框,輸入容許使用 iSCSI 目標服務器的域內計算機名稱便可,如圖 8-13 所示。

8-13 查詢發起程序計算機 ID

第 7 步,點擊肯定後,能夠檢查發起程序類型,此時會發現,經過這種方式建立的 iSCSI 發起程序類型爲"IQN",如圖 8-14 所示。

8-14 建立 IQN 類型的發起程序

第 8 步,除了 IQN 的類別外,還可使用 DNS、IP 地址、MAC 地址這三種方式來識別發起程序。在"添加發起程序 ID"對話框中,能夠選擇"輸入選定類型的值"的方式,於下拉菜單中選擇手動輸入此類型值。如圖 8-15 所示。

8-15 使用 DNSIP 地址、MAC 地址建立發起程序

第 9 步,若是並不是是第一次建立 iSCSI 虛擬磁盤,則在"從目標服務器上的發起程序緩存中選擇"下,會列出已經被使用的發起程序。其做用相似於"收藏夾",保存了以前添加過的目標服務器信息。如圖 8-16 所示,配置完發起程序後,能夠點擊"下一步"繼續。

8-16 可以使用已存在的發起程序進行鏈接

第 10 步,接下來配置"目標名稱和訪問",此處填寫準確詳細的名稱和描述可爲管理帶來便利,如圖 8-17 所示,點擊"下一步"繼續。

8-17 配置目標名稱和訪問

第 11 步,在"訪問服務器"對話框中,能夠看到於第 9 步所添加的 iSCSI 目標名稱,目標的類型與鏈接效果無任何關聯,只要是系統支持的鏈接類型,都可提供徹底一致的訪問能力,如圖 8-18 所示,點擊"下一步"繼續。

8-18 檢查訪問服務器

第 12 步,在"啓用驗證服務"對話框中,能夠配置 CHAP 協議,以對發起程序鏈接進行身份驗證。若是對系統的安全性有要求,能夠配置此驗證服務,通常狀況下無需配置,如圖 8-19 所示,點擊"下一步"繼續。

8-19 確認是否啓用驗證服務

第 13 步,在"確認"對話框中,能夠檢查以前配置的全部環節,若是在此處發現有配置錯誤的地方,則可點擊"上一步",依次返回修改,如圖 8-20 所示。

8-20 確認配置是否無誤

第 14 步,在"結果"對話框中,能夠看到系統開始逐步進行建立 iSCSI 虛擬磁盤的過程。因爲此前選擇了虛擬磁盤的格式爲固定大小,會發現建立過程很慢。

此時打開"資源監視器"(依次按下 Ctrl+Alt+Esc 打開"任務管理器"→切換至"詳細信息"→"性能"選項卡→ "打開資源管理器"),會發現磁盤資源消耗嚴重的文件正是咱們建立的 iSCSI 虛擬磁盤文件,其持續進行寫入操做,所操做的時間與實際文件大小相匹配(每秒寫入 100MB 數據,140GB 的 iSCSI 虛擬磁盤文件寫入需時 24 分鐘(1430 秒))。因爲固定大小的 iSCSI 虛擬磁盤自己的特性,所以此時耗時過長是正常現象,如圖 8-21 所示。

8-21 進入 iSCSI 虛擬磁盤建立過程

第 15 步,建立若是未完成,亦可關閉操做窗口,進行其餘操做。返回"文件和存儲服務"→"iSCSI"能夠觀察到 iSCSI 虛擬磁盤的建立進度,如圖 8-22 所示。須要注意的是,僅在使用固定大小時會使用較長的時間進行建立。如使用動態擴展,則建立過程會瞬間完成。

8-22 文件和存儲服務中檢查 iSCSI 虛擬磁盤建立進度

8.2.4 使用 iSCSI 虛擬磁盤

完成 iSCSI 虛擬磁盤的建立後,便可由 iSCSI 發起程序來鏈接 iSCSI 目標服務器。該操做會將 iSCSI 目標服務器上所共享的 iSCSI 虛擬磁盤掛載在須要使用共享存儲的主機上供主機使用。

1. 單主機鏈接 iSCSI 目標服務器首先以 iSCSI 目標服務器自己來鏈接 iSCSI 虛擬磁盤。

第 1 步,依次打開"控制面板"→"iSCSI 發起程序"(iSCSI 發起程序僅存在於 Windows Server 2008 以上的操做系統中,Windows Server 2003 不自帶 iSCSI 發起程序,須要下載額外的軟件)。默認狀況下 iSCSI 服務不自動開啓,首次使用須要點擊"是"按鈕開啓該功能,如 圖 8-23 所示。

8-23 使用 iSCSI 發起程序

第 2 步,點擊"是"按鈕後,會彈出"iSCSI 發起程序 屬性"窗口,在"目標"選項卡下,輸入 iSCSI 目標服務器的 IP 地址,點擊"快速鏈接"。在彈出的"快速鏈接"窗口,能夠看到 iSCSI 目標服務器。點擊"完成"便可,如圖 8-24 所示。

8-24 鏈接目標

第 3 步,從控制面板打開"磁盤管理工具",或從"運行"中直接輸入"diskmgmt.msc" 以開啓。此時能夠發現經過 iSCSI 發起程序鏈接的虛擬磁盤已正確掛載,默認狀況下,該虛擬磁盤爲脫機狀態,如圖 8-25 所示。

 

8-25 默認掛載的磁盤爲脫機狀態第 4 步,在該磁盤上右鍵點擊,選擇"聯機",如圖 8-26 所示。

8-26 使磁盤處於聯機狀態

第 5 步,確認磁盤爲聯機狀態後,在該磁盤上右鍵點擊,選擇"初始化磁盤",若是虛擬磁盤容量超過 2T,則須要選擇 GPT 的分區形式,若是虛擬磁盤容量小於 2T,則可使用

MBR 的分區形式,如圖 8-27 所示。

8-27 初始化磁盤

第 6 步,初始化磁盤完成後,能夠於虛擬磁盤上"新建簡單卷",並進行磁盤分區的操做,如圖 8-28 所示。

8-28 建立簡單卷並分區

第 7 步,磁盤分區完成後,能夠在系統中看到新的盤符,同時在磁盤管理工具中,也能夠發現,這塊虛擬磁盤使用起來和本地磁盤是徹底一致的。如圖 8-29 所示。

8-29 使用虛擬磁盤

2. 羣集主機鏈接 iSCSI 目標服務器

羣集主機鏈接 iSCSI 目標服務器的方法與單主機一致,須要注意的是,必須對共享的 iSCSI 虛擬磁盤設置正確的 iSCSI 目標。

第 1 步,在 iSCSI 目標服務器上依次點擊"服務器管理器"→"文件和存儲服務"→"iSCSI"

→"iSCSI 目標",在 iSCSI 目標上右鍵點擊,選擇"屬性",如圖 8-30 所示。

8-30 修改 iSCSI 目標屬性

第 2 步,點擊"發起程序",準備添加羣集所涉及的主機。如圖 8-31 所示。

8-31 修改 iSCSI 目標屬性

第 3 步,點擊"添加"按鈕,使用"查詢發起程序計算機 ID"的方法,依次添加羣集主機的計算機 FQDN(hv2.contoso.com 和 hv3.contoso.com),此處也能夠根據我的習慣,輸入羣集主機的 MAC 地址或 IP 地址,如圖 8-32 所示,點擊"肯定"後,完成屬性修改。

8-32 添加額外的 iSCSI 目標

第 4 步,依次登陸羣集所涉及的主機,使用 "iSCSI 發起程序"鏈接 iSCSI 目標服務器,如圖 8-33 所示。

8-33 依次配置 iSCSI 發起程序

第 5 步,返回"iSCSI 目標",在 iSCSI 目標上右鍵點擊,選擇"屬性",點擊"鏈接",能夠看到 hv2.contoso.com、hv3.contoso.com、hv4.contoso.com 三臺主機均同時正常鏈接到該 iSCSI 虛擬磁盤上了,如圖 8-34 所示。

8-34 檢查 iSCSI 發起程序的鏈接情況

3. 爲羣集主機添加仲裁磁盤

使用 Window 的故障轉移羣集,在某些狀況下,須要用到仲裁磁盤。仲裁磁盤不須要存儲數據,僅做爲仲裁方存在。它能夠實如今某個節點發生故障時,起到"投票"的做用,使羣集資源根據"少數服從多數"的原則將資源從故障主機轉移到正常運行的主機上。

爲了使用仲裁磁盤,須要在 iSCSI 目標服務器中再次添加一塊 iSCSI 虛擬磁盤。

第 1 步,在"iSCSI 虛擬磁盤"對話框中,於右側的"任務"下拉菜單中,選擇"新建 iSCSI 虛擬磁盤",如圖 8-35 所示。

8-35 新建 iSCSI 虛擬磁盤

第 2 步,在"新建 iSCSI 虛擬磁盤嚮導"中,於"iSCSI 虛擬磁盤位置對話框"點擊存儲位置的"按卷選擇",選中此例中的 D 盤,如圖 8-36 所示,點擊"下一步"繼續。須要注意的是,爲了保證 iSCSI 虛擬磁盤的性能和使用的穩定性,儘可能不要在 iSCSI 虛擬磁盤上嵌套建立 iSCSI 虛擬磁盤。

8-36 新建 iSCSI 虛擬磁盤

第 3 步,在"iSCSI 虛擬磁盤名稱"對話框中,輸入 iSCSI 虛擬磁盤的名稱,此處的名稱設置可用中文,如圖 8-37 所示,點擊"下一步"繼續。

8-37 配置 iSCSI 虛擬磁盤名稱

第 4 步,在"iSCSI 虛擬磁盤大小"對話框中,選擇"動態擴展"的類型,大小輸入 10G 便可。因爲仲裁磁盤不參與數據存儲,對性能要求也不高,所以使用動態擴展徹底能夠知足要求。如圖 8-38 所示,點擊"下一步"繼續。

8-38 配置 iSCSI 虛擬磁盤大小和類型

第 5 步,在"iSCSI 目標"對話框中,直接使用直接已建立的 iSCSI 目標便可,如圖 8-39 所示,點擊"下一步"繼續。

8-39 選擇 iSCSI 目標

第 6 步,在"確認"對話框中,檢測無誤便可點擊"建立"完成仲裁磁盤的建立,如圖8-40 所示。

8-40 確認仲裁磁盤的建立過程

第 7 步,建立完畢後,客戶端無需進行任何設置,新增的 iSCSI 虛擬磁盤即會出如今"磁盤管理"的列表中。在管理列表中,能夠看到虛擬磁盤的狀態和目標的狀態均已變爲"已鏈接",如圖 8-41 所示。

8-41 確認仲裁磁盤的建立過程

第 8 步,使用仲裁磁盤的場合,羣集默認會優先使用邏輯單元號較小的磁盤做爲仲裁磁盤。在本例中,因爲仲裁磁盤是後建立的,所以經過羣集嚮導建立的羣集,會錯誤的將"故障轉移羣集.vhdx"這個容量較大的磁盤識別爲仲裁磁盤。因此在正式使用以前,還須要手動修改 iSCSI 虛擬磁盤的邏輯單元號(LUN),右鍵點擊"故障轉移羣集.vhdx",選擇屬性,如圖8-42 所示。

8-42 準備修改 iSCSI 虛擬磁盤的邏輯單元號

第 9 步,在 iSCSI 虛擬磁盤的屬性窗口中,修改邏輯單元號(LUN)的值爲 2 或更大的數字並點擊"確認",最大不可超過 63。相同 iSCSI 目標下建立多個 iSCSI 虛擬磁盤,其邏輯單元號會從 0 至 63 依次增長,若是但願調整磁盤的優先級順序,能夠經過調整邏輯單元號來完成,如圖 8-43 所示。

8-43 修改 iSCSI 虛擬磁盤的邏輯單元號,保障磁盤排序符合要求

第 10 步,在任意一臺已鏈接該 iSCSI 目標服務器的羣集成員主機上,打開"磁盤管理",將新添加的磁盤進行聯機,並格式化,如圖 8-44 所示。

8-44 聯機並格式化仲裁磁盤

爲了減小後期的重複操做,建立仲裁磁盤能夠在建立故障轉移羣集磁盤以前進行,這樣擁有兩個好處:

  • 無需後期調整邏輯單元號,默認即符合羣集建立要求。
  • 一次性建立完成,iSCSI 目標鏈接 iSCSI 目標服務器時,不會再有預期的停機中斷。

4. 導入虛擬磁盤

如遇服務器遷移或者備份還原,能夠手動導入虛擬磁盤來完成 iSCSI 目標服務器的從新搭建。

第 1 步,在 iSCSI 虛擬磁盤對話框中,於右側的"任務"下拉菜單中,選擇"導入 iSCSI 虛擬磁盤",如圖 8-45 所示。

8-45 準備導入 iSCSI 虛擬磁盤

第 2 步,在 iSCSI 虛擬磁盤位置對話框中,手動輸入或使用"瀏覽"選擇以前建立的 iSCSI 虛擬磁盤文件,本例中爲"D:\iscsivirtualdisks\備份磁盤.vhdx",如圖 8-46 所示,點擊"下一步"繼續。

8-46 選擇須要導入的 iSCSI 虛擬磁盤

第 3 步,在"iSCSI 目標的對話框"中,選中已有的 iSCSI 目標,如圖 8-47 所示,點擊 "下一步"繼續。以後進行的確認、分配、聯機等操做與上一小節一致,在此再也不贅述。

8-47 選擇現有的 iSCSI 目標

5. 刪除虛擬磁盤如遇誤操做或長遠規劃考慮,須要刪除某些虛擬磁盤,則須要進行以下操做。

第 1 步,在"iSCSI 虛擬磁盤"對話框中,選中須要刪除的 iSCSI 虛擬磁盤,右鍵點擊,選擇"刪除 iSCSI 虛擬磁盤",如圖 8-48 所示。

圖 8-48 刪除 iSCSI 虛擬磁盤

第 2 步,如該 iSCSI 虛擬磁盤正在被使用,則點擊"刪除 iSCSI 虛擬磁盤"後會彈出以下錯誤提示,如圖 8-49 所示。錯誤提示指出正在被使用的 iSCSI 虛擬磁盤沒法刪除。

8-49 正在使用的 iSCSI 虛擬磁盤沒法被刪除

第 3 步,在"iSCSI 虛擬磁盤"對話框中,選中須要刪除的 iSCSI 虛擬磁盤,右鍵點擊,選擇"禁用 iSCSI 虛擬磁盤",如圖 8-50 所示。處於禁用或未使用的狀態下,iSCSI 虛擬磁盤方可被刪除,禁用時系統會提示對於正在使用的 iSCSI 虛擬磁盤操做會有數據損壞的風險,所以在確認刪除和禁用 iSCSI 虛擬磁盤時,須要格外謹慎。

8-50 iSCSI 虛擬磁盤置於禁用狀態

第 4 步,此時可對處於禁用狀態的 iSCSI 虛擬磁盤進行刪除操做,在刪除菜單中可選是否刪除本地的 iSCSI 虛擬磁盤文件,如肯定已無重要數據,可勾選該選項,完成文件的刪除操做,如圖 8-51 所示。

8-51 刪除禁用狀態的 iSCSI 虛擬磁盤文件

8.3 故障轉移羣集的前期準備

8.3.1 故障轉移羣集與 SMB 多通道

Windows Server 2012 R2 的故障轉移羣集對網絡的要求並不苛刻,最惡劣的狀況下,羣集的每一個節點只需一個物理網卡接口便可完成羣集搭建。但如此的環境,網絡層面沒有任何保障性可言,在生產活動當中,不建議用戶使用這種單網卡架構。同時,因爲數據流量和管理流量都使用同一個接口完成,當數據流量由於各類緣由跑滿帶寬時,這將致使沒有足夠的帶寬去進行服務器管理。

在部署 Windows Server 2012 R2 的故障轉移羣集時,能夠利用到兩種技術手段,對網絡的持續服務質量進行保障:

  • NIC 組合:經過 NIC 組合,將多條物理鏈路進行整合,完成網絡層面的冗餘架構規劃。關於 NIC 組合的配置和原理,可參考本書以前的章節。
  • SMB 多通道:服務器消息塊 (SMB) 協議是網絡文件共享協議,讓計算機上的應用程序可讀取和寫入文件以及從計算機網絡中的服務器程序請求服務。SMB 協議可在其 TCP/IP 協議或其餘網絡協議上使用。自 Windows Server 2012 起,引入了全新 3.0 版的 SMB 協議。若是在 SMB 3.0 客戶端和 SMB 3.0 服務器之間經過多個網絡鏈接,則系統自動應用 SMB 多通道,這讓服務器應用程序能夠充分利用可用網絡帶寬並在發生網絡故障時恢復。SMB 多通道是默認開啓的功能,只要做爲接收端和發送端的 Windows Server 2012/2012 R2 主機都擁有兩條或兩條以上的網絡鏈路,則可使用該功能。

6.     SMB 多通道的使用和配置

在基於 Windows Server 2012/2012 R2 的服務器或基於 Windows 8/8.1 的計算機鏈接到使用服務器消息塊 (SMB) 3.0 的文件共享服務器時,SMB 多通道將會均衡流量至多條物理鏈路上,同時鏈路具備故障轉移功能。須要注意的是,SMB 多通道僅在可路由的 IP 地址和鏈路上運行,若是沒有爲網卡配置網關,或網絡不可達,則 SMB 多通道不會生效。

SMB 多通道是一項默認開啓的策略,在虛擬化和私有云的應用前提下,能夠爲部署虛擬機模板、實時遷移、快速遷移、Hyper-V 主機之間的文件拷貝帶來帶寬分流和鏈路冗餘的功能。

SMB 多通道擁有如下優點:

  • 故障轉移, 若是計算機中的某一個網卡失效,則使用其餘網卡進行通訊。
  • 帶寬疊加, 在多張網卡上聚合帶寬,並使用多個處理器處理網卡上的網絡中斷。
  • 自動化,自動檢測並使用多個網絡路徑。

咱們能夠在 PowerShell 下使用以下命令檢查 SMB 多通道工做是否正常。

Get-SmbServerConfiguration | Select-Object EnableMultiChannel

輸入以上 PowerShell 命令後,返回 EnableMultChannel 對應結果爲 True,則表示 SMB 多通道處於開啓狀態,如圖 8-52 所示。

8-52 檢查 SMB 多通道是否開啓

如表 8-2 所示,這次建立羣集涉及兩臺 Hyper-V 主機的網卡信息,爲了同時展現 NIC 組合和 SMB 多通道,這兩臺 Hyper-V 主機均配置了三張網卡,其中網卡 1 和網卡 2 作 NIC 組合,網卡 3 作普通的數據通訊。網卡 1 和網卡 2 經過 NIC 組合造成新的虛擬網卡與網卡 3 同時工做,實現 SMB 多通道。因爲 NIC 組合會產生一張新的虛擬網卡,而且通訊也以新的虛擬網卡爲準,因此在架構規劃時,無需爲網卡 1 和網卡 2 單獨設計 IP 地址,只須要對組合後的網卡配置 IP 便可。

Hyper-V主機名稱

網卡1

網卡2

網卡3

hv2.contoso.com

NIC組合

數據通訊

hv3.contoso.com  

NIC組合

數據通訊

表 8-2 羣集成員主機的網卡功能配置

  • SMB 多通道的應用要求

在虛擬化和私有云中,SMB 多通道的客戶端與服務器二者的界限並非很明顯,當從 hv2 到 hv3 的文件拷貝時,hv2 做爲客戶端,hv3 做爲服務端;當從 hv3 到 hv2 的文件拷貝時,hv3 做爲客戶端,hv2 做爲服務端。

SMB 多通道在實際部署時只需關注兩個技術要點便可實現:

  • 通訊雙方的操做系統均爲 Windows Server 2012/2012 R2
  • 至少擁有兩張網卡,且兩張網卡的鏈路都可達對方。
  • SMB 多通道的典型網絡配置

爲了實現 Hyper-V 主機配置多張網卡,且多張網卡的鏈路都可達對方,這裏須要藉助物理交換機的 VLAN 設置,本環境故障轉移羣集所涉及的 IP 配置信息如表 8-3 所示。

其中網卡 1+2 進行 NIC 組合(下簡稱網卡 12)處於 VLAN11 中,網卡 3 處於 VLAN12 中。

Hyper-V主機名稱

hv2.contoso.com  

hv3.contoso.com

網卡1+2NIC組合IP地址

192.168.0.207  

192.168.0.208  

網卡1+2子網掩碼

255.255.255.0  

網卡1+2網關

192.168.0.250  

網卡3IP地址

192.168.136.108

192.168.136.124

網卡3子網掩碼

255.255.255.0  

網卡3網關

192.168.136.250  

網卡1+2羣集地址

192.168.136.145  

網卡3羣集地址

192.168.0.5  

8-3 羣集成員主機的網卡 IP 信息配置

在思科 2960S 交換機上須要作以下相關設置:關鍵部分以"!"的形式做爲註釋,供參考。表 8-3 中爲網卡 1+2 和網卡 3 分配了不一樣的網關地址,但實際均指向了同一臺物理交換機的不一樣物理端口。關於 NIC 組合的交換機配置,可參考本書以前的章節。

!!!!爲 VLAN11 和 VLAN12 接口配置 IP,同時設置容許經過的 DHCP 服務器的信息。若是但願在不一樣 VLAN 上使用同一臺 DHCP,這該選項必須配置。此處 192.168.136.1 指的是 dc.contoso.com 這臺域控。

interface Vlan11 ip address 192.168.0.250 255.255.255.0 ip helper-address 192.168.136.1

!!

interface Vlan12

ip address 192.168.136.250 255.255.255.0 ip helper-address 192.168.136.1

 

 

!!!! 本例採用 AccessVLAN 的方式鏈接 Hyper-V 主機,在不一樣的接口下,能夠爲其配置不一樣的 VLAN 信息,如在交換機的 六、7 口配置容許 VLAN11 的流量經過;八、9 口容許 VLAN12 的流量經過。

interface GigabitEthernet1/0/6 switchport access vlan 11 spanning-tree portfast interface GigabitEthernet1/0/7 switchport access vlan 11 spanning-tree portfast interface GigabitEthernet1/0/8 switchport access vlan 12 spanning-tree portfast interface GigabitEthernet1/0/9 switchport access vlan 12 spanning-tree portfast

爲了驗證 SMB 多通道是否成功啓用,在進行如上交換機和網卡配置後,能夠嘗試從 hv2 往 hv3 上覆制文件,如在任務管理器中發現兩組網卡均有數據流量,即意味着 SMB 多通道已經生效,如圖 8-53 所示,在硬盤速度較爲理想的狀況下,能夠很明顯的看到流量疊加的效果。

8-53 驗證 SMB 多通道實際效果

9. 多網關下調整網卡順序在配置多網卡,同時多張網卡均有網關的時候,系統會提示以下警告,如圖 8-54 所示。

8-54 配置多網卡的多網關必然會出現的警告

此警告意味着若是爲兩張或兩張以上網卡配置網關,則必須保障他們在同一個網絡(經過 VLAN 互聯,且 VLAN 之間不可作 ACL 限制)。此時也能夠經過調整網卡的優先級來對網關進行排序,以確保主要流量經過指定的網關傳遞。

第 1 步,依次打開"控制面板"→"網絡和 Internet"→"網絡鏈接",在網絡鏈接窗口中按下鍵盤上的"alt"鍵,此時地址欄下方會出現一排管理按鈕,如圖 8-55 所示,依次點擊"高級"→"高級設置"。

8-55 調出網絡鏈接"高級設置"菜單

第 2 步,在彈出的"高級設置"對話框中,經過調整"鏈接"中網卡的上下次序,從新定義網卡的順序排列,點擊肯定完成設置,如圖 8-56 所示。

8-56 調出網絡鏈接"高級設置"菜單

10. Hyper-V 下的 NIC 組合與 SMB 多通道

根據以前小節的規劃,將要部署的故障轉移羣集每一個節點均使用了 3 張物理網卡。本小節將會對網卡進行相應配置,以實現同時使用 NIC 組合和 SMB 多通道。如下操做須要依次在全部涉及的故障轉移節點執行。

第 1 步,在"控制面板"→"網絡和 Internet"→"網絡鏈接"下,爲故障轉移羣集成員主機的網卡修改容易識別的名稱,此處修改網卡 一、網卡 二、網卡 3 分別爲"1"、"2"、

"136"如圖 8-57 所示。

8-57 修改容易識別的網卡名稱

第 2 步,依次點擊"服務器管理器"→"本地服務器"→"NIC 組合"或在運行中直接輸入"lbfoadmin",打開 NIC 組合對話框,如圖 8-58 所示,於"適配器和接口"下同時選中

"1"和"2",單擊"任務",選擇"添加到新組"。

8-58 修改容易識別的網卡名稱

第 3 步,在彈出的對話框中,於"組名稱"處輸入"0"(意指該網卡承載 0 段地址,名稱僅做爲標示使用,無任何實際意義)。若是交換機不支持 LACP,能夠點擊"其餘屬性", "成組模式"和"負載平衡模式"配置爲"交換機獨立"和"Hyper-V 端口"。若是交換機支持 LACP,則能夠按照本書以前章節說明,將"成組模式"配置爲"LACP",如圖 8-59 所示,點擊"肯定"完成配置。

8-59 配置 NIC 組合屬性

第 4 步,完成配置的 NIC 組合狀態如圖 8-60 所示,此時能夠前往"網絡鏈接"對其配置 IP 地址、網關和 DNS。

圖 8-60 完成 NIC 配置

第 5 步,打開"Hyper-V 管理器",在須要修改的 Hyper-V 主機上右鍵點擊,選擇"虛擬交換機管理器",如圖 8-61 所示。

8-61 修改虛擬交換機配置

第 6 步,依次建立兩臺新的虛擬交換機,分別命名爲 0 和 136,同時指定不一樣的外部網絡。此時能夠發現,經過 NIC 組合後的網卡名稱變爲了"Microsoft Network Adapter Multiplexor Driver",如圖 8-62 所示。

8-62 增長兩臺虛擬交換機

第 7 步,點擊"肯定"按鈕完成配置,此時系統會彈出警告,在建立虛擬交換機的同時,會有短暫的網絡中斷,如圖 8-63 所示。

8-63 確認虛擬交換機建立

第 8 步,完成虛擬交換機的建立後,依次打開"控制面板"→"網絡和 Internet"→"網絡鏈接",會發現此時網絡鏈接數量由 3 個變爲 6 個,其中"0"表明網卡 1 和網卡 2 的 NIC 組合的虛擬交換機。vEthernet(0)表明"0"虛擬交換機上的虛擬網卡,vEthernet(136)表明"136"虛擬交換機上的虛擬網卡。如圖 8-64 所示。

8-64 網絡鏈接組成

依次在全部涉及的故障轉移羣集節點中進行如上配置便可同時使用 NIC 組合和 SMB 多通道,須要注意的是,爲了使用故障轉移羣集,關於網卡和交換機的命名必定要一致。

8.3.1 故障轉移羣集的帳號準備

運行 Hyper-V 的故障轉移羣集,須要用到 Hyper-V 主機上本地管理員的權限,同時羣集必須是域成員計算機,加入域的計算機默認會將域管理員添加至本地管理員組中。所以建立故障轉移羣集的操做可使用域管理員來進行,同時爲了保證後期的運維和管理,建立故障轉移羣集的用戶帳戶建議使用獨立帳號。

8.3.2 故障轉移羣集架構規劃

  1. 故障轉移羣集邏輯架構

本書採用的故障轉移羣集爲雙物理節點,每節點 3 網卡,同時使用 NIC 組合和 SMB 多通道功能,經過 Windows Server 2012 R2 自帶的 iSCSI 目標服務器搭建 iSCSI 共享存儲。總體架構如圖 8-65 所示。如讀者測試條件不知足,可使用單網卡建立故障轉移羣集。

8-65 網絡鏈接組成

在生產活動中,若是條件容許,建議使用如圖 8-66 所示的架構,多臺 Hyper-V 主機經過交換機進行鏈接,至少配備 4 張網卡,可使用 LACP 鏈路聚合協議配合 NIC 組合完成物理鏈路方面的高可用,同時存儲使用單獨專用的鏈路。

8-66 多節點共享存儲

  1. 故障轉移羣集網卡分配

在單臺 Hyper-V 主機擁有 4 張網卡的前提下,建議使用以下的使用方法,如表 8-4 所示。

網卡ID

做用

備註

1  

NIC組合

可配合交換機開啓LACP

2  

3  

存儲專用

VLAN分隔

4  

管理專用

VLAN分隔

8-4 四張網卡環境下的網絡配置

13. 故障轉移羣集仲裁磁盤的使用

仲裁磁盤在故障轉移羣集中的某些場景下,並非必須的。故障轉移羣集的仲裁擁有如下 4 種方式:

  • 節點多數(推薦用於含有奇數個節點的羣集),能夠承受的故障節點數爲節點數的一半(四捨五入)減去一。例如,七個節點的羣集能夠承受三個節點出現故障。
  • 節點和磁盤多數(推薦用於含有偶數個節點的羣集),在仲裁磁盤保持聯機時能夠承受的故障節點數爲節點數的一半(四捨五入)。例如,在仲裁磁盤聯機時,六個節點的羣集能夠承受有三個節點出現故障。在仲裁磁盤脫機或出現故障時能夠承受的故障節點數爲節點數的一半(四捨五入)減去一。例如,仲裁磁盤有故障時,六個節點的羣集能夠承受兩 (3-1=2) 個節點故障。
  • 節點和文件共享多數(適合有特殊配置的羣集)與"節點和磁盤多數"的工做方式相似,可是此羣集使用見證文件共享,而不是仲裁磁盤。
  • 無多數:僅磁盤(不推薦)

仲裁是一個"少數服從多數的"機制,當某一臺設備脫機後,如何肯定其不可用,須要故障轉移羣集內的成員"投票表決",這個投票過程就是仲裁。爲了實現少數服從多數,須要故障轉移羣集內參與投票的成員必須爲單數。Hyper-V 故障轉移羣集的仲裁是自動設置的,根據 Hyper-V 主機的數量不一樣,故障轉移羣集會自動決定是採用"節點多數"仍是"節點和磁盤多數"的仲裁配置。常見的 Hyper-V 主機數量所對應的仲裁方式如表 8-5 所示。

Hyper-V

主機數量

共享存儲是否參與仲裁

參與仲裁數量

仲裁方式

2  

1  

3  

節點和磁盤多數

3  

0  

3  

節點多數

4  

1  

5  

節點和磁盤多數

5  

0  

5  

節點多數

6  

1  

7  

節點和磁盤多數

8-5 常見故障轉移羣集成員數量仲裁方式

 

8.4 故障轉移羣集的建立

8.4.1 添加故障轉移羣集功能

14. 經過嚮導添加故障轉移羣集功能

在建立使用故障轉移羣集以前,須要先爲 Hyper-V 主機安裝故障轉移羣集功能。

1 步,打開"服務器管理器",點擊"添加角色和功能",如圖 8-67 所示。

8-67 準備添加角色和功能第 2 步,在"開始以前"對話框中,單擊"下一步",圖 8-68 所示。

8-68 安裝角色和功能嚮導

第 3 步,在選擇"安裝類型"對話框中,選擇"基於角色或基於功能的安裝"。單擊"下一步",如圖 8-69 所示。

8-69 確認安裝類型

第 4 步,在"服務器選擇"對話框中,選擇從"服務器池中選擇服務器",點選列表中出現的須要添加故障轉移羣集功能的服務器,本例中爲 hv2.contoso.com 和 hv3.contoso.com, 添加故障轉移羣集功能須要使用該向導爲兩臺 Hyper-V 主機分別執行一次,此時單擊"下一步",如圖 8-70 所示。

8-70 確認安裝類型第 5 步,在"服務器角色"對話框中,直接單擊"下一步"跳過,如圖 8-71 所示。

8-71 跳過服務器角色安裝

第 6 步,在"功能"對話框中,勾選"故障轉移羣集",並在彈出的詢問是否添加故障轉移羣集工具的對話框中,點擊"添加功能",如圖 8-72 所示。

8-72 添加故障轉移羣集功能

第 7 步,在"確認"對話框中,勾選"若是須要,自動從新啓動目標服務器",點擊"安裝",耐心等待功能添加完成,如圖 8-73 所示。

8-73 添加故障轉移羣集完成

第 8 步,重複以上步驟,在全部故障轉移羣集節點中安裝"故障轉移羣集功能"。在"運行"中輸入"Cluadmin.msc",或在"管理工具"中找到"故障轉移羣集管理器"便可確認是否安裝完成,如圖 8-74 所示。

8-74 檢查故障轉移羣集功能安裝

15. 經過 PowerShell 添加故障轉移羣集功能以管理員身份運行如下 PowerShell 命令,便可對 hv2.contoso.com hv3.contoso.com 這兩臺 Hyper-V 主機完成故障轉移羣集功能和管理工具的安裝。能夠發現 PowerShell 的應用,可以在角色安裝部署階段節省不少重複勞動。

Invoke-Command -ComputerName hv2,hv3 -Command{Install-WindowsFeature -Name Failover-

Clustering -IncludeManagementTools -restart}

PowerShell 命令成功執行後,如圖 8-75 所示。

8-75 PowerShell 添加故障轉移羣集

8.4.2 驗證故障轉移羣集

"驗證配置"是建立故障轉移羣集以前很是重要的一個步驟,建議你們在建立故障轉移羣集以前務必運行此功能。經過驗證配置,能夠對故障轉移羣集的網絡、磁盤、系統補丁狀況等多方面進行驗證。同時驗證配置也是一個故障轉移羣集錯誤檢測工具,當故障轉移羣集工做不正常的時候,經過運行驗證配置,能夠獲得關於當前故障轉移羣集運行情況的詳細信息。

1 步,打開故障轉移羣集管理器,在左側的"故障轉移羣集羣集管理器"上右鍵點擊,選擇驗證配置,如圖 8-76 所示。

 

8-76 準備運行故障轉移羣集驗證配置

第 2 步,在彈出的"驗證配置嚮導"中,能夠查看到微軟對接下來操做的一些建議,如圖 8-77 所示。包括:

  • 羣集所涉及到的硬件組件必須明確表示支持 Windows Server 2012 R2
  • 必須是每一個須要驗證的羣集節點上的本地管理員,(本例以域管理員來完成安裝)。
  • 若是但願驗證現有的故障轉移羣集,須要知道該羣集的名稱或某一個節點的名稱。

    8-77 運行故障轉移羣集的注意事項

第 3 步,在"選擇服務器或羣集"對話框中,輸入須要加入到故障轉移羣集中的 HyperV 主機名稱,此處輸入 FQDN 或 Netbios 名都可,輸入完成後點擊"添加"按鈕,並點擊"下一步"繼續,如圖 8-78 所示。

8-78 添加故障轉移羣集節點

第 4 步,在"測試選項"對話框中,選中"運行全部測試",此選項會驗證全部節點的關於故障轉移羣集的所有配置,,如圖 8-79 所示。

8-79 選擇測試項目

第 5 步,在"確認"對話框中,點擊"下一步"繼續,如圖 8-80 所示。

8-80 確認故障轉移羣集

第 6 步,接下來進入"正在驗證"對話框,系統開始自動進行故障轉移羣集驗證,同時實時顯示驗證的過程和結果,此驗證大約持續 10 分鐘,如圖 8-81 所示。如按照本章的配置方法完成前置操做,此處不會有任何報錯信息。

8-81 開始驗證故障轉移羣集

第 7 步,如前置操做存在配置失誤的地方,則完成驗證後,會出現圖 8-82 所示的錯誤提示,須要仔細檢查前置操做的環節是否存在故障。

8-82 驗證出現問題,出現告警

第 8 步,如前置操做配置無誤,則完成驗證後,會出現圖 8-83 所示的提示,同時多了一個"當即使用通過驗證的節點建立羣集"的選項,點擊完成即進入建立羣集的環節。

8-83 驗證無誤,能夠進入建立羣集環節

8.4.3 故障轉移羣集驗證報告

完成故障轉移羣集驗證後,不管是否成功,都可以點擊 "查看報告"按鈕檢查羣集健康狀況,檢查報告的結果將分爲 Hyper-V 設置、存儲、清單、網絡、系統配置五個部分,如圖 8-84 所示。

8-84 檢查故障轉移羣集驗證報告

"Hyper-V 設置"部分會檢測 Hyper-V 主機是否安裝 Hyper-V 角色,存儲、CPU 是否符合羣集要求,以及 CPU 的兼容性等信息,如圖 8-85 所示。

8-85"Hyper-V"設置驗證

"存儲"部分會檢測所使用的共享存儲是否支持故障轉移羣集,包括是否可以建立 CSV(羣集共享卷),是否支持永久保留,是否支持仲裁,以及文件系統是否受支持。

在存儲檢測中的關鍵項是是否支持永久保留,對於較老的 SCSI 存儲來講,這項功能可能不受支持,經過驗證故障轉移羣集能夠提早發現此問題,如圖 8-86 所示。

8-86"存儲"設置驗證

"清單"部分會對 Hyper-V 主機的硬件部分和軟件部分進行總體的統計,包括 Hyper-V 主機的 BIOS 信息,操做系統信息,軟件更新,內存信息、驅動信息、當前系統進程等,如圖 8-87 所示。

其中軟件更新部分是最容易出錯的地方,此處故障轉移羣集會檢測每個羣集節點上操做系統的系統補丁,若是補丁不一致,這裏會出現黃色"警告"提示,所以建議用戶使用 WSUS 一類的補丁安裝工具,對操做系統進行統一升級和管理。但通常狀況下補丁對羣集搭建沒有決定性的影響,即便此處出現相應報錯,但多數狀況下也不會致使建立故障轉移羣集失敗。 8-87"清單"設置驗證

"網絡"部分會對全部羣集節點的網絡進行驗證,如圖 8-88 所示。此處主要是檢查網卡所定義的名稱和 Hyper-V 虛擬交換機的名稱是否一致、參與羣集通訊的網卡和 IP 地址配置是否正確,通訊是否正常。須要注意的是,羣集節點須要通訊的網卡名稱標識必定要一致,同時 Hyper-V 虛擬交換機的名稱也須要一致。若是不一致,則沒法實現虛擬機的故障轉移切換,同時此處的驗證也會沒法經過。

8-88"網絡"設置驗證

"系統配置"部分會對全部羣集節點的 Hyper-V 主機的 Service Pack 版本進行驗證,因爲不一樣的 Service Pack 意味着羣集擁有不一樣級別的功能,因此帶有不一樣 Service Pack 的操做系統在特定條件下可能沒法成功建立故障轉移羣集。同時此處會驗證 AD 配置、驅動簽名等不容易歸類的信息,如圖 8-89 所示。

8-89"網絡"設置驗證

8.4.4 建立故障轉移羣集

徹底經過故障轉移羣集的驗證後,能夠進入建立故障轉移羣集的環節。

第 1 步,在正確完成"驗證配置"後,自動彈出"建立羣集嚮導",點擊"下一步"繼續,如圖 8-90 所示。

8-90 建立羣集嚮導

第 2 步,在"用於管理羣集的訪問點"對話框,能夠輸入羣集的名稱,以及爲不一樣網卡配置不一樣的羣集 IP 地址,本例中則是分別爲 0 段和 136 段配置兩個不一樣的羣集 IP 地址。須要注意的是,此處羣集名稱限制不得超過 15 個字符,如圖 8-91 所示,點擊"下一步"繼續。 8-91 配置羣集 IP 地址和羣集名稱

第 3 步,在"確認"對話框中,能夠再次檢視羣集配置狀況,包括羣集所涉及的節點,以及羣集名稱、羣集 IP 地址,如圖 8-92 所示,點擊"下一步"繼續。

8-92 檢視羣集配置信息

即便羣集所涉及的 Hyper-V 主機如並未配置固定 IP,其一樣能夠建立羣集。使用動態 IP 地址建立羣集,則在"確認"對話框能夠看到羣集並未分配固定的 IP 地址,如圖 8-93 所示,後期管理和訪問須要使用Netbios名或FQDN進行維護,相對來講可靠性和可用性會差一些。

所以不建議在生產環境中使用動態 IP 地址進行羣集的建立和管理。

8-93 羣集可使用動態 IP 進行建立

第 4 步,在"正在建立新羣集"對話框,能夠看到羣集開始建立,在網速較爲理想的狀況下,建立羣集會在 1 分鐘內完成,如圖 8-94 所示。

8-94 正在建立新羣集

第 5 步,在"摘要"對話框,能夠看到羣集已經建立完畢,同時本例中的仲裁方式自動採用的是"節點和磁盤多數"。如圖 8-95 所示。此時能夠點擊"查看報告",檢查建立羣集的過程。

8-95 完成羣集建立

8.4.5 故障轉移羣集建立報告

故障轉移羣集建立報告是在羣集建立過程當中產生的日誌,它會對羣集建立過程當中的每個過程進行記錄,其功能和"驗證配置"類似,但相對來講檢測項目少了不少,同時該環節會對域內的一些信息進行檢測和驗證。

通常來講,只要經過"驗證配置",進入到故障轉移羣集建立過程,則不多有建立失敗的狀況,如圖 8-96 所示。如此處有失敗告警,多數會與域環境自己有關,解決故障的關鍵點也需向域環境傾斜。

8-96 故障轉移羣集建立報告

8.5 故障轉移羣集的基本操做

故障轉移羣集羣集管理器包含 5 個重要組成部分:分別是角色、節點、存儲、網絡、羣集事件。如圖 8-97 所示。在平常運維中,咱們常常會接觸到各種角色和功能的建立、刪除、修改。 8-97 故障轉移羣集管理器

8.5.1 配置虛擬機角色

角色是故障轉移羣集最經常使用的一個管理單位,建立高可用的虛擬機便是經過故障轉移羣集來完成的。

1 步,在"角色"上右鍵點擊,選擇"配置角色",如圖 8-98 所示

8-98 開啓配置角色

2 步,點擊"配置角色"後,彈出"高可用性向導",在"開始以前"對話框,能夠閱讀故障轉移羣集是如何實現角色的高可用性的,同時此處對故障轉移羣集的工做原理進行了簡單接受啊,如圖 8-99 所示,點擊"下一步"繼續。

8-99 進入高可用性向導

3 步,故障轉移羣集的角色不只僅包含在虛擬化和私有云中被頻繁使用到的"虛擬機",還有 Hyper-V 副本代理、DHCP 服務器、DFS 命名空間服務器等角色,以及通用服務、通用腳本、通用應用程序等可自定義的角色,如圖 8-100 所示,選擇"虛擬機",點擊"下一步"繼續。

圖 8-100 選擇虛擬機角色

4 步,在"選擇虛擬機"對話框,能夠將存儲在羣集共享卷(CSV)上的虛擬機進行"導入",使其"高可用化"。須要注意的是,此處的操做僅對羣集共享捲上的虛擬機生效,對安裝在 Hyper-V 主機本地磁盤上的虛擬機無任何效果,如圖 8-101 所示,點擊"下一步"繼續。

8-101 選擇虛擬機

5 步,在"確認"對話框,能夠檢查上一步所進行的選項是否正確,如圖 8-102 所示,點擊"下一步"繼續。

8-102 確認所選的虛擬機是否須要"高可用化" 6 步,在"配置高可用性"對話框,耐心等待羣集角色的建立,如圖 8-103 所示。 8-103 配置虛擬機角色的高可用性

7 步,在"摘要"對話框,能夠看到配置虛擬機的高可用性已經成功完成,如圖 8-104 所示,點擊完成退出"高可用性向導"。

8-104 完成虛擬機高可用性的配置

8.5.2 建立羣集共享卷(CSV

在上一小節提到,虛擬機須要建立在羣集共享卷(CSV)上才能夠實現高可用性,羣集共享卷的功能是什麼,又是如何建立的呢?

羣集共享卷 (CSV):這是一種在 Windows Server 2008 R2 開始中引入的功能,它的目的是爲羣集虛擬機提供公用存儲,羣集共享卷屬於構築在共享存儲上的一種獨特的文件格式。它容許羣集內的多個節點同時訪問同一個 NTFS 文件系統。經過使用羣集共享卷,可實現羣集內多個節點間的實時遷移或快速遷移。

羣集共享卷的建立很是簡單,它能夠經過可用的共享存儲直接生成。

1 步,在故障轉移羣集管理器中,依次點擊"存儲"→"磁盤",能夠看到右側列出了經過 iSCSI 目標服務器所建立的兩個羣集磁盤,如圖 8-105 所示,其中較小且排序靠前的磁盤自動變爲"仲裁中的磁盤見證",而另一塊"羣集磁盤 2"則是"可用存儲"的狀態。

8-105 羣集磁盤之可用存儲第 2 步,在"羣集磁盤 2"上右鍵點擊,選擇"添加到羣集共享卷",如圖 8-106 所示。

8-106 添加可用存儲至羣集共享卷

3 步,待"羣集磁盤 2"變成"羣集共享卷"後,能夠看到在磁盤的信息窗口下,羣集共享卷的存儲位置變成了"C:\ClusterStorage\Volume1",如圖 8-107 所示。

8-107 羣集共享卷的存儲位置有小改變

羣集共享卷的建立很是簡單,在 Windows Server 2012 R2 中依然使用這項遺傳自 Windows Server 2008 R2 的技術,是由於羣集共享卷擁有以下優勢:

  • 羣集節點可同時訪問 CSV,這意味着不一樣節點訪問 CSV 上的虛擬機存儲文件是無延時的,每個虛擬機都位於"C:\ClusterStorage\VolumeX)"中本身的文件夾中,因此細粒度的故障轉移無需爲每個虛擬機配置單獨的 LUN,在管理上帶來很大的便捷性。同時對於 Hyper-V 主機來講,物理磁盤的配置可能不一致,但至少每個系統都會擁有一個 C 盤分區,使用 CSV 無需爲共享存儲分配其餘盤符。
  • CSV 代理文件系統 (CSVFS)。在仍使用基礎 NTFS 文件系統的同時,提供具備一致的單個文件命名空間的羣集共享存儲。
  • 支持 BitLocker 驅動器加密。容許使用羣集計算機賬戶(又稱爲羣集名稱對象,簡稱爲 CNO)的公用標識進行加密。這在某些有合規要求的企業中具備很好的適用性。
  • 便於進行文件備份,可使用卷影複製服務 (VSS) 進行便捷的備份
  • SMB 多通道和 SMB 直通集成。使用新的 SMB 3.0 功能,容許 CSV 流量在羣集內的多個網絡間傳輸,並能夠利用支持遠程直接內存訪問 (RDMA) 的網絡適配器。本書中所建立的 NIC 組合+SMB 多通道的架構能夠很好的利用 CSV 的這個特性。
  • Windows Server 2012 R2 自帶的存儲空間功能集成。容許對多組低成本磁盤上的羣集存儲進行虛擬化。
  • 可以在不脫機的狀況下掃描和修復卷,爲數據恢復帶來必定的便利性。

8.5.3 建立高可用虛擬機

配置完羣集共享卷(CSV)後,就能夠開始建立高可用的虛擬機了。

1 步,在"故障轉移羣集羣集管理器"下,在"角色"上右鍵點擊,依次選擇"虛擬機"→"新建虛擬機",如圖 8-108 所示。

8-108 建立高可用虛擬機

2 步,在彈出的"新建虛擬機窗口"中,任意選擇羣集中的一個節點,點擊"確認",如圖 8-109 所示。

8-109 選擇虛擬機承載的節點

3 步,點擊"肯定"按鈕後,系統自動彈出"Hyper-V 管理器"的"新建虛擬機嚮導",接下來的建立流程與在非羣集環境下建立虛擬機相似。點擊"下一步"繼續,如圖 8-110 所示。

8-110 選擇虛擬機承載的節點第 4 步,在"指定名稱和位置"對話框,爲虛擬機配置名稱以及虛擬機存儲的位置。如圖 8-111 所示,點擊"下一步"繼續。

須要注意的是,此處必須將虛擬機保存在羣集共享捲上,也就是"C:\ClusterStorage\Volume(X)"下,不然建立高可用虛擬機失敗。

8-111 定義虛擬機存儲位置

5 步,在"指定代數"對話框,選擇"第一代"。爲了保持較好的兼容性,建議用戶最好選擇該選項。點擊"下一步"繼續,如圖 8-112 所示。

8-112 定義虛擬機代數

6 步,在"分配內存"對話框,修改合適的數值或直接點擊"下一步"繼續,如圖 8-113 所示。

8-113 分配虛擬機內存

7 步,在"配置網絡"對話框,選擇合適的虛擬網絡交換機,因爲本例中配置了兩個不一樣的網段,所以在這裏擁有兩個不一樣網段的虛擬交換機可選,如圖 8-114 所示,點擊"下一步"繼續。

8-114 爲虛擬機配置網絡

8 步,在"鏈接虛擬硬盤"對話框,能夠檢查虛擬硬盤的存儲位置,因爲在第 4 步,已經指定虛擬機保存在羣集共享捲上,所以虛擬磁盤默認也位於羣集共享卷的相應目錄下。如圖 8-

115 所示,點擊"下一步"繼續。

8-115 爲虛擬機配置虛擬硬盤

9 步,在"安裝選項"對話框,能夠爲虛擬機配置引導光盤或使用網絡引導,也能夠直接點擊"下一步"繼續,如圖 8-116 所示。

8-116 定義虛擬機安裝選項

10 步,在"摘要"對話框,檢視配置信息是否有誤,點擊"完成"結束高可用虛擬機的建立,如圖 8-117 所示。

8-117 摘要界面,檢視虛擬機配置

11 步,點擊完成後,系統自動從"Hyper-V 管理器"的"新建虛擬機嚮導"返回到"故障轉移羣集管理器"的"高可用嚮導",如圖 8-118 所示。點擊"查看報告",能夠看到在報告中,主要的檢測項目就是虛擬機存儲是否保存在羣集共享捲上。

8-118 完成高可用虛擬機的建立

在建立高可用虛擬機的過程當中,很明顯能夠發現,"故障轉移羣集管理器"利用了"HyperV 管理器"的"新建虛擬機嚮導",和單純經過"Hyper-V 管理器"建立虛擬機不一樣的是,其僅在建立結束將虛擬機置於羣集中。

8.5.4 刪除高可用虛擬機

當羣集中的高可用虛擬機再也不被使用時,能夠手動將其刪除。

1 步,在"故障轉移羣集管理器"中,依次點擊"角色"→須要刪除的虛擬機,在須要刪除的虛擬機上右鍵點擊,選擇"刪除",如圖 8-119 所示。本例操做的目標爲上一小節建立的"高可用虛擬機"。

8-119 刪除高可用虛擬機

2 步,點擊"刪除",系統提示"該羣集角色有 2 個資源",此時能夠"點"是按鈕進行刪除,如圖 8-120 所示。

8-120 提示羣集角色擁有 2 個資源

系統提示的"該羣集角色中有 2 個資源",這是怎麼回事呢?依次點擊"角色"→須要刪除的虛擬機,在"角色"下方,點擊"資源"按鈕,查看當前虛擬機的資源,能夠看到該虛擬機擁有兩個資源,分別是"存儲"和"虛擬機",如圖 8-121 所示,這也就是爲何刪除虛擬機時會提示"該羣集角色中有 2 個資源"。

8-121 羣集角色的資源

3 步,完成刪除後,能夠看到在"故障轉移羣集管理器"中,"高可用虛擬機"已經沒有了,如圖 8-122 所示。

8-122 從羣集中刪除資源

4 步,在"Hyper-V 管理器"中,發現"高可用虛擬機"依然存在,可見"故障轉移羣集管理器"中的"刪除"操做,僅僅是將虛擬機從羣集中移除,如圖 8-123 所示。

8-123 虛擬機僅從羣集中移除,實際並未刪除

5 步,如但願繼續進行刪除操做,須要在"Hyper-V 管理器"中關閉虛擬機,而後在其上右鍵點擊,選擇"刪除",如圖 8-124 所示。

8-124 繼續在"Hyper-V 管理器"中刪除虛擬機

6 步,"Hyper-V 管理器"中刪除虛擬機僅刪除選定虛擬機的配置,但不刪除與虛擬機關聯的虛擬硬盤,所以還須要前往"C:\ClusterStorage\Volume1"的相對應目錄下,手動刪除虛擬硬盤文件,如圖 8-125 所示。

8-125 手動刪除虛擬機的虛擬硬盤文件

能夠看到,在刪除高可用虛擬機的流程中,總體環節仍是顯得有些繁瑣,同時不只須要在 "故障轉移羣集管理器"中操做,還須要切換到"Hyper-V管理器",以及最後還需前往羣集共享卷手動刪除虛擬機文件。

這樣的操做是否是有些畫蛇添足呢?有沒有簡單的方法處理高可用虛擬機的刪除呢?很遺憾的是,經過 Windows Server 2012 R2 和"Hyper-V 管理器"是沒法實現簡化操做的,要想實現更簡單的管理只能使用本書後續章節所介紹的微軟私有云組件。

8.5.5 添加高可用虛擬硬盤

因爲"故障轉移羣集管理器"和"Hyper-V管理器"的關係很緊密,所以不少"Hyper-V管理器"中的操做,均可以在"故障轉移羣集管理器"中看到。經過爲虛擬機添加一塊建立在羣集共享捲上的虛擬硬盤,可以實現虛擬機的按需擴容。

1 步,在"故障轉移羣集管理器"下,依次點擊"角色"→須要操做的虛擬機,虛擬機關機狀態下右鍵點擊,選擇"設置",如圖 8-126 所示。

8-126 設置虛擬機,準備添加虛擬硬盤

2 步,在彈出的虛擬機設置窗口,依次點擊"IDE 控制器 0"→"硬盤驅動器"→"添加",如圖 8-127 所示。

8-127 添加新的硬盤驅動器

3 步,此時左側會增長一項新的"硬盤驅動器",於右側點擊"新建"按鈕,打開"新建虛擬硬盤嚮導",如圖 8-128 所示。

8-128 開啓新建虛擬硬盤嚮導

4 步,在彈出的"新建虛擬硬盤嚮導"中,點擊下一步,開始建立虛擬硬盤,如圖 8-129 所示。

8-129 建立虛擬硬盤

5 步,在"選擇磁盤格式"對話框中,選中默認的 VHDX 格式,點擊"下一步"繼續,如圖 8-130 所示。

圖 8-130 選擇 VHDX 格式虛擬硬盤

6 步,在"選擇磁盤類型"對話框中,選中默認的動態擴展格式,點擊"下一步"繼續,如圖 8-131 所示。

8-131 選擇動態擴展類型

7 步,在"指定名稱和位置"對話框中,修改虛擬硬盤的名稱,同時修改"位置"爲羣集共享卷"C:\ClusterStorage\Volume1"下的目錄,點擊"下一步"繼續,如圖 8-132 所示。

8-132 指定虛擬磁盤位置在羣集共享捲上

8 步,在"配置磁盤"對話框中,點選默認"新建空白虛擬硬盤",點擊"完成"結束虛擬硬盤配置,如圖 8-133 所示。

8-133 完成虛擬硬盤配置

9 步,返回虛擬機設置選項卡,能夠看到新增的虛擬硬盤已被指定在"IDE 控制器 0"下,如圖 8-134 所示。

8-134 檢查虛擬硬盤配置

須要注意的是,儘管高可用環境下的增長硬盤操做和"Hyper-V 管理器"下增長硬盤的操做基本一致,但使用"Hyper-V 管理器"是沒法對故障轉移羣集中的高可用虛擬機進行修改的,其錯誤提示如圖 8-135 所示。

8-135 "Hyper-V 管理器"沒法對高可用虛擬機進行修改

如需對高可用虛擬機的硬盤進行擴展,能夠在虛擬機管理選項卡下,依次點擊"IDE 控制器0"→"硬盤驅動器",於右側點擊"編輯"按鈕,對虛擬硬盤進行編輯,如圖 8-136 所示。

8-136 對高可用虛擬機的虛擬硬盤進行擴容

相對普通虛擬機的硬盤擴容而言,高可用虛擬機的硬盤擴容限制條件稍多一些,如圖 8-137 所示。其中包括:

  • 虛擬硬盤不能是差別磁盤鏈中存在子虛擬硬盤的父硬盤。
  • 當前虛擬機不能存在檢查點。
  • 當前虛擬機不能參與 Hyper-V 副本。

    8-137 高可用虛擬機擴充虛擬硬盤的限制條件

8.6 故障轉移羣集節點管理

在本例的故障轉移羣集中,每一臺物理的 Hyper-V 主機都是一個"節點",只要知足建立羣集的基本條件,則節點能夠在羣集中任意增刪。須要注意的是,節點不是無限制的增長的,其受限於 Windows Serve 的最大節點數限制,如表 8-6 所示。

羣集資源

Hyper-V

Hyper-V

Hyper-V

Hyper-V2012/2012 R2 相對2008R2 提升的倍數

(2008 R2)

2012

2012 R2

最大節點數量

16

64

64

最大虛擬機數量

1,000

8,000

8,000

表 8-6Windows Server 2012 R2 下的羣集相比前代產品的進步

8.6.1 暫停和恢復羣集

在"故障轉移羣集管理器"的"節點"下,能夠看到當前羣集所管理的兩個節點,如圖 8-

138所示。

 

圖 8-138 故障轉移羣集節點信息

  • 暫停羣集功能

在任意一個節點上右鍵點擊,能夠發現彈出菜單中有"暫停"選項,如圖 8-139 所示,其中:

  • 排出角色,因爲故障轉移羣集的設計目的在於爲用戶提供持續可用的服務,所以當用戶主動點擊暫停時,一樣意味着服務中斷,排除角色意味着在點擊暫停後,該節點上的故障轉移羣集角色會轉移到其餘節點上。
  • 不排除角色,當點擊暫停後,該節點上的故障轉移羣集角色依然保留在該虛擬機上,沒法對外提供服務,直到該節點退出暫停狀態。

    8-139 暫停羣集功能

  • 恢復羣集功能

當羣集節點手動暫停後,能夠對該節點進行打補丁,安裝軟件,重啓等維護操做。而當維護結束後,須要將該節點恢復正常。

在任意一個暫停節點上右鍵點擊,能夠發現彈出菜單中有"恢復"選項,如圖 8-140 所示,其中:

  • 故障回覆角色,當處於暫停狀態的節點須要恢復正常時,點擊該選項能夠恢復以前在該節點上開啓的故障轉移羣集角色。
  • 不故障回覆角色,當處於暫停狀態的節點須要恢復正常時,點擊該選項不會恢復該節點點擊暫停前的故障轉移羣集角色。

例如,當暫停時選擇排除角色,而恢復時選擇不故障回覆角色,則所涉及的節點首先會遷移節點上的虛擬機到其餘節點上,而恢復時,位於其餘節點上的虛擬機不自動回遷。暫停和恢復是維護羣集所經常使用的兩個功能。

8-140 暫停羣集功能

8.6.2 啓動和中止羣集

若是但願測試羣集自動遷移的效果,能夠手動對羣集進行"中止"操做,而當羣集由於意外狀況自動中止時,也能夠經過"啓動"操做,來恢復羣集的可用性。

在任意一個節點上右鍵點擊,能夠看到"更多操做"選項,點擊後能夠看到"中止羣集服務" 選項,如圖 8-141 所示。和暫停相比,中止羣集服務屬於"意外"的中斷羣集服務。

8-141 中止羣集服務中止後的羣集狀態會顯示爲"故障",如圖 8-142 所示。

8-142 中止羣集服務後,節點會顯示爲"故障"

在故障節點右鍵點擊,能夠看到"更多操做"選項,此時能夠點擊"啓動羣集服務",如圖

8-143 所示,啓動後的羣集節點的狀態將由"故障"變爲"正常"。

8-143 可對故障節點"啓動羣集服務"

8.6.3 逐出羣集節點

當某個羣集節點由於某些緣由須要離線時,必須先將該節點"逐出"羣集。如羣集節點須要退役,換新設備;設備保養,長時間不聯網;挪作他用,再也不歸現有羣集全部。這些狀況都須要將羣集節點"逐出"羣集。

在任意一個節點上右鍵點擊,能夠看到"更多操做"選項,點擊後能夠看到"逐出"選項,如圖 8-144 所示。此時系統會彈出警告信息框,提醒該操做的危險性,點擊"是"按鈕完成逐出羣集的操做。

須要注意的是,在逐出羣集節點以前,必定要將該節點上的故障轉移羣集角色遷移至其餘角色。

8-144 逐出羣集節點

完成逐出羣集節點後,能夠在"故障轉移羣集管理器"下檢查羣集摘要,此時能夠看到本例中的羣集因爲逐出一個節點,只剩下一個節點了,如圖 8-145 所示。

8-145 檢查羣集摘要

8.6.4 添加羣集節點

和"逐出"相反的操做就是"添加",當組織面臨規模擴大,或羣集現有資源沒法知足用戶需求時,須要對現有羣集橫向擴容,增長現有羣集節點,提高業務處理能力和處理速度。添加羣集節點和建立羣集的操做相似,都是經過嚮導完成的。

1 步,在"故障轉移羣集管理器"下羣集摘要選項卡下,點擊"添加節點",如圖 8-146 所示。

8-146 爲現有羣集添加新的節點

2 步,進入"添加節點嚮導",在開始以前"對話框",系統會對添加羣集節點的關鍵技術要點進行介紹,如圖 8-147 所示,點擊"下一步"繼續。其中介紹的內容包括:

  • 新增的羣集節點必須知足節點之間硬件、軟件、固件的相同,其具體要求和初次建立羣集的要求徹底一致。
  • 強烈建議用戶在添加節點嚮導時使用驗證配置嚮導進行全部測試的驗證。

    8-147 添加節點嚮導開始以前

3步,在"選擇服務器"對話框,填寫並添加在上一小節逐出羣集的節點 hv2.contoso.com,如圖 8-148 所示,點擊"下一步"繼續。

8-148 選擇以前"逐出"的節點進行添加

4 步,在"驗證警告"對話框,能夠對添加的節點進行配置驗證測試,因爲被逐出的節點咱們徹底確定其軟硬件配置合乎要求,所以此處能夠點"否"跳過驗證。如點擊"是"則進入驗證配置嚮導,如圖 8-149 所示,點擊"下一步"繼續。

8-149 選擇是否進行配置驗證測試

5 步,在"確認"對話框,能夠檢視已添加的節點,如圖 8-150 所示,點擊"下一步"繼續。

8-150 確認須要添加的節點6 步,在"配置羣集"對話框,系統會很快完成添加節點的操做,如圖 8-151 所示。

8-151 選擇是否進行配置驗證測試。

7 步,在"摘要"對話框,此處會看到一個錯誤提示,錯誤提示的內容是"不會考慮將羣集磁盤 2 用作磁盤見證……",出現該錯誤提示的緣由是,羣集磁盤 2 是咱們以前建立的羣集共享卷(CSV),只有羣集磁盤 1 纔是仲裁磁盤。所以該錯誤提示徹底能夠忽略,如圖 8-152 所示。

同時須要注意的是,若是是新增節點,致使羣集節點由單數變爲雙數或雙數變爲單數,羣集的仲裁方式也會自動的隨之改變,徹底不需人爲參與。因此儘管羣集仲裁方式看起來複雜多變,但這些僅僅須要咱們掌握知識,而不須要手動修改。

8-152 檢查摘要,完成添加羣集節點

 

8.7 小結

本章對什麼是故障轉移羣集,故障轉移羣集的優缺點,以及搭建故障轉移羣集最重要的兩個因素:存儲、網絡進行了詳細的介紹和部署。若是用戶擁有硬件存儲產品,則能夠直接使用,而不須要搭建 iSCSI 目標服務器。相對而言,硬件級的存儲產品能夠提供更好的性能和穩定性。

在羣集的網絡方面,也建議用戶使用 NIC 綁定和 SMB 多通道,特別是後者,這是一項幾乎沒有任何額外支出的高可用性技術。

故障轉移羣集在虛擬化和私有云的建設中,主要是做爲虛擬機底層的高可用平臺而存在的。所以對於故障轉移羣集的基本操做,如仲裁磁盤、羣集共享卷;建立、刪除、修改虛擬機;添加、逐出羣集節點也進行了詳細介紹。

本章僅對羣集的基礎環境進行了介紹,所以顯得稍微枯燥了一些,但畢竟這是虛擬化和私有云穩健運行的基石,不少高級功能都離不開羣集的支持。而在後續章節中,本書會對羣集在虛擬化和私有云中的實際應用逐一展開。

相關文章
相關標籤/搜索