博文目錄
1、網絡負載平衡概述
2、NLB的羣集操做模式
3、使用NLB羣集的注意事項
4、部署NLBhtml
網絡負載平衡(Network Load Balancing,NLB)技術就是將訪問壓力均衡分佈到多臺服務器上,以此提升整個服務器集羣的響應能力。node
Windows的網絡負載平衡羣集容許用戶將傳入的請求傳播到最多達32臺的服務器上,便可以使用最多32臺服務器共同分擔對外的網絡請求服務,它們對外只須要提供一個IP地址(或域名)。即便是在負載很重的狀況下,也能作出快速響應,若是其中一臺或幾臺服務器不可用,服務不會中斷。web
網絡負載平衡自動檢測到服務器不可用時,可以迅速地在剩餘的服務器中從新指派與客戶機進行通訊。此保護措施可以幫助用戶爲關鍵的業務程序提供不中斷的服務,能夠根據網絡訪問量的增多來增長網絡負載平衡服務器的數量。網絡負載平衡可在普通的計算機上實現。在Windows server 2016中,網絡負載平衡的應用程序包括Internet信息服務(IIS)、代理服務器、虛擬專用網、終端服務器、Windows Media Services(Windows 視頻點播、視頻廣播)等服務。同時,網絡負載平衡有助於改善服務器性能和可伸縮性,以知足不斷增加的來自Internet客戶端的需求。瀏覽器
在NLB羣集中,每臺服務器都會有一個屬於本身的靜態IP地址,同時NLB羣集中的全部服務器還有一個共同的IP地址——NLB羣集IP地址。安全
每一個服務器都運行所需的服務器應用程序(如web、FTP或虛擬專用網等)的單個副本,當客戶端向NLB羣集(NLB的虛擬羣集IP地址)發起請求時,NLB在羣集的多個服務器中分發傳入的客戶端請求。能夠根據須要配置每一個服務器處理的負載權重,也能夠向羣集中動態地增長服務器以均衡羣集的輔助。此外,NLB還能夠將全部流量引導至某個服務器,該服務器稱爲「默認主機」。服務器
對於負載平衡的應用程序,當服務器出現故障或脫機時,會自動在仍然運行的計算機之間從新分發負載,並斷開與出現故障或脫機的服務器之間的活動鏈接。網絡
NLB羣集中的服務器會互相交換檢測信息,以此保持羣集成員身份的數據一致性和健康度。默認狀況下,當服務器持續5秒鐘未能發出檢測信息時,NLB羣集即認爲該服務器出現了故障,並將剩下的> * 服務器聚合在一塊兒執行如下操做。ide
肯定哪些服務器仍然是羣集中的活動成員;性能
選擇優先級最高的服務器做爲新的默認主機;測試
- 確保全部新的客戶端請求由仍然活動的服務器來處理;
可伸縮性是度量計算機、服務或應用程序如何更好地改進以知足持續增加的性能需求的標準。對於NLB羣集而言,可伸縮性是指當羣集的所有負載超過其能力時逐步將一個或多個服務器添加到現有羣集中的功能。NLB可執行如下操做。
平衡NLB羣集上對各個TCP/IP服務的負載請求;
在一個羣集中最多支持32臺計算機;
平衡羣集中多個服務器的負載請求;
在負載增長時,支持在不關閉羣集的狀況下向羣集中添加服務器;
在負載減小時,支持從羣集中刪除服務器;
- 經過所有實現管道化提升性能並下降開銷。管道容許向NLB羣集發送請求,而無須等待響應上一個發送的請求;
經過最大程度地減小停機時間,高可用性可以可靠地提供服務。NLB可自動執行如下操做。
檢測發生故障或脫機的羣集服務器並對其進行恢復;
在添加或刪除服務器時平衡網絡負載;
- 在10秒以內恢復並從新分發負載;
NLB會對參與服務的計算機分配一個獨立的MAC地址;經過MAC地址響應客戶端的請求,MAC地址被稱爲羣集MAC;單播模式更多兼容路由器和交換機網絡設備使用;使用比較少,羣集MAC地址不能捆綁到交換機的端口上;
工做在單播模式下的NLB能夠在全部網絡環境下正常運行,可是因爲它的工做特性,具備如下兩個限制:
因爲NLB所使用的羣集MAC地址沒有綁定在某個具體的交換機端口上,所以全部的NLB通訊均經過在交換機的全部端口上廣播進行,而無論此端口是否鏈接了NLB節點,這樣形成了額外的網絡流量負擔。
- 因爲全部的NLB節點具備相同的MAC地址,所以NLB節點之間不能經過本身原有的專用IP地址進行通訊。
在多播模式下,NLB不會修改NLB節點啓用NLB的網絡適配器的MAC地址,而是爲它再分配一個二層多播MAC地址專用於NLB的通訊,這樣NLB節點之間能夠經過本身原有的專用IP地址進行通訊。
在多播模式下,NLB節點發送的針對羣集IP地址、MAC地址、ARP請求的ARP回覆會將羣集IP地址映射到多播MAC地址,而許多路由器或交換機會拒絕這一行爲。使用比較普遍。
NLB網絡負載平衡會監聽到發送NLB節點的數據包;NLB節點的數據都會匯聚到鏈接服務器的交換機上;交換機產生流量洪水,交換機故障NLB故障穩定性差;使用比較少。
正確保護網絡負載平衡主機和通過負載平衡的應用程序。
若是可能,在每一個羣集主機上至少使用兩個網絡適配器,但並不是必要條件。
正確設置網卡的單播或多播模式。
在羣集適配器上只使用TCP/IP協議。
不要在啓用了網絡負載平衡的網卡上添加TCP/IP協議以外的其餘協議。
確保羣集中的全部主機屬於同一個子網,而且客戶機可以訪問該子網。羣集主機的專用IP地址或羣集IP地址都要屬於同一個子網。
使用網絡負載平衡管理器配置NLB羣集。
不用啓用網絡負載平衡遠程控制選項。網絡負載平衡的遠程控制可能存在安全隱患,包括數據被篡改、拒絕服務和信息泄露等。
啓用日誌記錄。
- 獨立使用NLB羣集和故障轉移羣集。
NLB羣集的每一個節點上須要安裝兩個網卡,分別用於羣集對外服務和羣集內部通訊。本案例爲NLB羣集準備的兩臺服務器上都安裝了兩塊網卡(VMnet2和VMnet3)。VMnet2爲羣集內通訊,VMnet3爲對外服務。
除了要準備羣集節點的地址之外,還須要規劃羣集的IP地址和域名,而且在DNS服務器上添加羣集域名的主機記錄,確保用戶能正確訪問羣集。本案例羣集域名爲www.benet.com IP地址爲192.168.100.254/24。
Windows server 2016的NLB羣集既能夠在工做組環境下搭建,又能夠在域環境下搭建,本案例採用工做組環境。
DC3_node1配置以下:
DC3_node1添加兩塊網絡,而後開機便可
VMnet2配置羣集內通訊IP地址(爲了便於區分VMnet2的名字我改成了private,VMnet3的名字我改成了public)
VMnet3配置對外服務IP地址及DNS
打開服務器管理器界面單擊「管理」按鈕,而後單擊「添加角色和功能」按鈕
保持默認下一步便可
保持默認下一步便可
保持默認下一步便可
選擇「Web服務器」複選框,而後單擊「添加功能」,單擊下一步
默認下一步
默認下一步
默認下一步
確認無誤後,單擊安裝便可
安裝完成
添加web根目錄,D盤建立一個文件夾,進入文件夾建立一個文本文檔(記事本)寫入www.node1.com!!! 而後另存爲以index.html保存便可。
web根目錄建立完成後開始配置WEB服務
將默認zha站點禁用,不要刪除,中止就能夠了
添加站點
我這裏就跟站點起名叫WEB,物理路徑就是瀏覽剛纔建立web根目錄的哪一個位置便可,鏈接爲特定用戶,用本地管理員登陸,而後測試便可
添加一個主機名
這時web站點就已經部署完成了,開始部署NLB
D4_node2配置以下:
配置和第一臺服務器配置是基本相同的,一樣添加兩塊網卡,VMnet2的IP地址:172.16.1.2/24 VMnet3的IP地址:192.168.100.20/24 DNS:192.168.100.30
添加WEB服務器,建立web根目錄,實際環境WEB根目錄內容是同樣的,我這裏方面看到效果這臺服務器根目錄內容就寫www.node2.com!!! 方面客戶端訪問看出效果。(我就不截圖了自行配置,不明白能夠根據上面一步步配置)配置WEB服務器和註冊新站點和上面配置都是同樣的,自行配置吧!
DC5_DNS配置以下:
前面基本無腦下一步我就不截圖了,自行配置,我這就截重點了,添加DNS服務器
默認下一步
默認下一步
安裝DNS
開始配置DNS服務器
新建主機
IP地址就是羣集地址
客戶端一會訪問的話就用瀏覽器訪問www.benet.com 就好了
基本環境已經部署完成了,只剩下網絡負載平衡了,客戶端最後配置IP地址訪問就好了。
開始配置NLB節點1(也就是DC3_node1):
默認下一步我就不一一截圖了,不明白的看上面的截圖把,我這裏直接開始添加網絡負載平衡。
開始安裝
安裝完成
開始配置網絡負載平衡
新建羣集
輸入節點1的計算機對外服務的IP地址,單擊「鏈接」按鈕,鏈接成功後下一步
默認下一步
添加羣集IP地址
添加Internet名稱,操做模式我選擇的多播
單擊編輯,能夠修改端口號,以及協議,我在這裏就不修改了,有需求自行修改便可
NLB節點1配置完成,開始配置NLB節點2
NLB節點2配置以下(D4_node2):
自行安裝網絡負載平衡服務,不明白能夠看節點1是怎麼安裝的,我這就直接開始配置了
節點2就不須要新建羣集,直接鏈接現存的,也就是剛纔配置的節點1
這裏鏈接須要等待2~3分鐘左右,耐心等待就好了
鏈接sha上以後,添加主機到羣集
輸入本機IP地址鏈接便可
默認下一步
單擊完成便可
自行查看如下兩臺服務器的優先級是不同的,客戶端一會訪問自行訪問優先級高的,優先級高的故障以後,自動切換到下一級的服務器上。
至此NLB也就配置完成了,NLB最多能夠有32個節點,我這裏就模擬兩個節點看一下效果,配置都是同樣的,下面開始配置客戶端訪問驗證。
win 7配置以下:
正常訪問的話是優先級高的那臺服務器
模擬優先級高的那臺服務器故障,(服務器關機),而後再次訪問會發現自動切換到了優先級爲1的服務器上
—————— 本文至此結束,感謝閱讀 ——————