VMware ESX 5.0 網卡負載均衡配置3種方法
(1) 基於端口的負載均衡 (Route based on the originating virtual port ID)(這個是默認支持)
算法
這種方式下,負載均衡是基於vPort ID的。一個vPort和Host上的一個pNIC捆綁在一塊兒,只有當這個pNIC失效的時候,才切到另外的pNIC鏈路上。這種方式的負載均衡只有在vPort數量大於pNIC的數量時才生效。對於VM來講,由於某臺VM的vNIC是捆綁在某一個pNIC上的,也就是說這臺VM(若是隻有一個vNIC的話)對外的數據流量將固定在某一個pNIC上。這種負載均衡是在VM之間的均衡,對於某一臺VM而言,其uplink的速率不可能大於單個pNIC的速率。此外,只有當VM的數量足夠多,而且這些VM之間的數據流量基本一致的狀況下,Host上的NIC Teaming的Load Balancing才較爲有效。對於如下這些極端狀況,基於端口方式的負載均衡根本不起做用或者效果不好,充其量只能說是一種端口冗餘。
a.Host上只有一臺只具備單vNIC的VM (此時徹底沒有Load balancing)
b.Host上的VM數量比pNIC少(好比有4臺VM可是Teaming中有5塊pNIC,此時有一塊pNIC徹底沒用上,其餘每一個vNIC各自使用一塊pNIC,此時也沒有任何負載均衡實現)
c.Host上雖然有多臺VM,可是99%的網絡流量都是某一臺VM產生的
網絡
這種方式下,負載均衡的實現是基於源MAC地址的。由於每一個vNIC老是具備一個固定的MAC地址,所以這種方式的負載均衡同基於端口的負載均衡具備一樣的缺點。一樣是要求vPort數量大於pNIC的時候纔會有效。一樣是vNIC的速率不會大於單個pNIC的速率
負載均衡
這種方式下,負載均衡的實現是根據源IP地址和目的IP地址的。所以同一臺VM(源IP地址老是固定的)到不一樣目的的數據流,就會由於目的IP的不一樣,走不一樣的pNIC。只有這種方式下,VM對外的流量的負載均衡才能真正實現。
不要忘記,VMware是不關心對端物理交換機的配置的,VMware的負載均衡只負責從Host出站的流量(outbound),所以要作到Inbound的負載均衡,必須在物理交換機上作一樣IP Hash方式的配置。此時,pNIC必須鏈接到同一個物理交換機上。
須要注意的是,VMware不支持動態鏈路聚合協議(例如802.3ad LACP或者Cisco的PAgP),所以只能實現靜態的鏈路聚合。(相似於HP的SLB)。不只如此,對端的交換機設置靜態鏈路聚合的時候也要設置成IP Hash的算法。不然這種方式的負載均衡將沒法實現。
這種方式的缺點是,由於pNIC是鏈接到同一臺物理交換機的,所以存在交換機的單點失敗問題。此外,在點對點的鏈路中(好比VMotion),2端地址老是固定的,因此基於IP Hash的鏈路選擇算法就失去了意義。
如何配置網卡聚合:
點擊【主機】—>【配置】—>【網絡】—>【屬性】:
在上面的選項卡中選擇【網絡適配器】—>【添加】—>在右邊彈出的窗口中選擇相應要綁定的網卡,接着一直下一步就能夠了。
這一步是將兩張網卡綁定在一塊兒,實現雙網卡綁定,下面要進行綁定策略的設置。
點擊上圖的【屬性】—>選擇【端口】選項卡—>【編輯】—>在彈出的窗口中選擇網卡綁定
能夠看到下圖有四種負載均衡策略:
按文章開始的說明選擇符合本身需求的策略,默認是基於vport ID 進行負載均衡。
在VMware ESX 上配置網卡網絡負載均衡就完成了。ide