全網最詳細的負載均衡原理圖解

負載均衡由來

在業務初期,咱們通常會先使用單臺服務器對外提供服務。隨着業務流量愈來愈大,單臺服務器不管如何優化,不管採用多好的硬件,總會有性能天花板,當單服務器的性能沒法知足業務需求時,就須要把多臺服務器組成集羣系統提升總體的處理性能。nginx

基於上述需求,咱們要使用統一的流量入口來對外提供服務,本質上就是須要一個流量調度器,經過均衡的算法,將用戶大量的請求流量均衡地分發到集羣中不一樣的服務器上。這其實就是咱們今天要說的負載均衡git

使用負載均衡能夠給咱們帶來的幾個好處:github

  • 提升了系統的總體性能;
  • 提升了系統的擴展性;
  • 提升了系統的可用性;

負載均衡類型

廣義上的負載均衡器大概能夠分爲 3 類,包括:DNS 方式實現負載均衡、硬件負載均衡、軟件負載均衡。算法

(一)DNS 實現負載均衡windows

DNS 實現負載均衡是最基礎簡單的方式。一個域名經過 DNS 解析到多個 IP,每一個 IP 對應不一樣的服務器實例,這樣就完成了流量的調度,雖然沒有使用常規的負載均衡器,但實現了簡單的負載均衡功能。後端

經過 DNS 實現負載均衡的方式,最大的優勢就是實現簡單,成本低,無需本身開發或維護負載均衡設備,不過存在一些缺點:緩存

  • 服務器故障切換延遲大,服務器升級不方便。咱們知道 DNS 與用戶之間是層層的緩存,即使是在故障發生時及時經過 DNS 修改或摘除故障服務器,但中間通過運營商的 DNS 緩存,且緩存頗有可能不遵循 TTL 規則,致使 DNS 生效時間變得很是緩慢,有時候一天後還會有些許的請求流量。
  • 流量調度不均衡,粒度太粗。DNS 調度的均衡性,受地區運營商 LocalDNS 返回 IP 列表的策略有關係,有的運營商並不會輪詢返回多個不一樣的 IP 地址。另外,某個運營商 LocalDNS 背後服務了多少用戶,這也會構成流量調度不均的重要因素。
  • 流量分配策略太簡單,支持的算法太少。DNS 通常只支持 rr 的輪詢方式,流量分配策略比較簡單,不支持權重、Hash 等調度算法。
  • DNS 支持的 IP 列表有限制。咱們知道 DNS 使用 UDP 報文進行信息傳遞,每一個 UDP 報文大小受鏈路的 MTU 限制,因此報文中存儲的 IP 地址數量也是很是有限的,阿里 DNS 系統針對同一個域名支持配置 10 個不一樣的 IP 地址。

實際上生產環境中不多使用這種方式來實現負載均衡,畢竟缺點很明顯。文中之因此描述 DNS 負載均衡方式,是爲了可以更清楚地解釋負載均衡的概念。安全

像 BAT 體量的公司通常會利用 DNS 來實現地理級別的全局負載均衡,實現就近訪問,提升訪問速度,這種方式通常是入口流量的基礎負載均衡,下層會有更專業的負載均衡設備實現的負載架構。服務器

(二)硬件負載均衡網絡

硬件負載均衡是經過專門的硬件設備來實現負載均衡功能,是專用的負載均衡設備。目前業界典型的硬件負載均衡設備有兩款:F5A10

這類設備性能強勁、功能強大,但價格很是昂貴,通常只有土豪公司纔會使用此類設備,中小公司通常負擔不起,業務量沒那麼大,用這些設備也是挺浪費的。

硬件負載均衡的優勢:

  • 功能強大:全面支持各層級的負載均衡,支持全面的負載均衡算法。
  • 性能強大:性能遠超常見的軟件負載均衡器。
  • 穩定性高:商用硬件負載均衡,通過了良好的嚴格測試,通過大規模使用,穩定性高。
  • 安全防禦:還具有防火牆、防 DDoS 攻擊等安全功能,以及支持 SNAT 功能。

硬件負載均衡的缺點也很明顯:

  • 價格貴;
  • 擴展性差,沒法進行擴展和定製;
  • 調試和維護比較麻煩,須要專業人員;

(三)軟件負載均衡

軟件負載均衡,能夠在普通的服務器上運行負載均衡軟件,實現負載均衡功能。目前常見的有 NginxHAproxyLVS。其中的區別:

  • Nginx:七層負載均衡,支持 HTTP、E-mail 協議,同時也支持 4 層負載均衡;
  • HAproxy:支持七層規則的,性能也很不錯。OpenStack 默認使用的負載均衡軟件就是 HAproxy;
  • LVS:運行在內核態,性能是軟件負載均衡中最高的,嚴格來講工做在三層,因此更通用一些,適用各類應用服務。

軟件負載均衡的優勢:

  • 易操做:不管是部署仍是維護都相對比較簡單;
  • 便宜:只須要服務器的成本,軟件是免費的;
  • 靈活:4 層和 7 層負載均衡能夠根據業務特色進行選擇,方便進行擴展和定製功能。

負載均衡LVS

軟件負載均衡主要包括:Nginx、HAproxy 和 LVS,三款軟件都比較經常使用。四層負載均衡基本上都會使用 LVS,據瞭解 BAT 等大廠都是 LVS 重度使用者,就是由於 LVS 很是出色的性能,能爲公司節省巨大的成本。

LVS,全稱 Linux Virtual Server 是由國人章文嵩博士發起的一個開源的項目,在社區具備很大的熱度,是一個基於四層、具備強大性能的反向代理服務器。

它如今是標準內核的一部分,它具有可靠性、高性能、可擴展性和可操做性的特色,從而以低廉的成本實現最優的性能。

Netfilter基礎原理

LVS 是基於 Linux 內核中 netfilter 框架實現的負載均衡功能,因此要學習 LVS 以前必需要先簡單瞭解 netfilter 基本工做原理。netfilter 其實很複雜,平時咱們說的 Linux 防火牆就是 netfilter,不過咱們平時操做的都是 iptables,iptables 只是用戶空間編寫和傳遞規則的工具而已,真正工做的是 netfilter。經過下圖能夠簡單瞭解下 netfilter 的工做機制:

netfilter 是內核態的 Linux 防火牆機制,做爲一個通用、抽象的框架,提供了一整套的 hook 函數管理機制,提供諸如數據包過濾、網絡地址轉換、基於協議類型的鏈接跟蹤的功能。

通俗點講,就是 netfilter 提供一種機制,能夠在數據包流通過程中,根據規則設置若干個關卡(hook 函數)來執行相關的操做。netfilter 總共設置了 5 個點,包括:PREROUTING、INPUT、FORWARD、OUTPUT、POSTROUTING

  • PREROUTING :剛剛進入網絡層,還未進行路由查找的包,經過此處
  • INPUT :經過路由查找,肯定發往本機的包,經過此處
  • FORWARD :經路由查找後,要轉發的包,在POST_ROUTING以前
  • OUTPUT :從本機進程剛發出的包,經過此處
  • POSTROUTING :進入網絡層已經通過路由查找,肯定轉發,將要離開本設備的包,經過此處

當一個數據包進入網卡,通過鏈路層以後進入網絡層就會到達 PREROUTING,接着根據目標 IP 地址進行路由查找,若是目標 IP 是本機,數據包繼續傳遞到 INPUT 上,通過協議棧後根據端口將數據送到相應的應用程序。

應用程序處理請求後將響應數據包發送到 OUTPUT 上,最終經過 POSTROUTING 後發送出網卡。

若是目標 IP 不是本機,並且服務器開啓了 forward 參數,就會將數據包遞送給 FORWARD 上,最後經過 POSTROUTING 後發送出網卡。

LVS基礎原理

LVS 是基於 netfilter 框架,主要工做於 INPUT 鏈上,在 INPUT 上註冊 ip_vs_in HOOK 函數,進行 IPVS 主流程,大概原理如圖所示:

  • 當用戶訪問 www.sina.com.cn 時,用戶數據經過層層網絡,最後經過交換機進入 LVS 服務器網卡,並進入內核網絡層。
  • 進入 PREROUTING 後通過路由查找,肯定訪問的目的 VIP 是本機 IP 地址,因此數據包進入到 INPUT 鏈上
  • LVS 是工做在 INPUT 鏈上,會根據訪問的 IP:Port 判斷請求是不是 LVS 服務,若是是則進行 LVS 主流程,強行修改數據包的相關數據,並將數據包發往 POSTROUTING 鏈上。
  • POSTROUTING 上收到數據包後,根據目標 IP 地址(後端真實服務器),經過路由選路,將數據包最終發日後端的服務器上。

開源 LVS 版本有 3 種工做模式,每種模式工做原理都不一樣,每種模式都有本身的優缺點和不一樣的應用場景,包括如下三種模式:

  • DR 模式
  • NAT 模式
  • Tunnel 模式

這裏必需要提另一種模式是 FullNAT,這個模式在開源版本中是模式沒有的。這個模式最先起源於百度,後來又在阿里發揚光大,由阿里團隊開源,代碼地址以下:

  • https://github.com/alibaba/lvs

LVS 官網也有相關下載地址,不過並無合進到內核主線版本。

後面會有專門章節詳細介紹 FullNAT 模式。下邊分別就 DR、NAT、Tunnel 模式分別詳細介紹原理。

DR 模式實現原理

LVS 基本原理圖中描述的比較簡單,表述的是比較通用流程。下邊會針對 DR 模式的具體實現原理,詳細的闡述 DR 模式是如何工做的。

其實 DR 是最經常使用的工做模式,由於它的強大的性能。下邊試圖以某個請求和響應數據流的過程來描述 DR 模式的工做原理

(一)實現原理過程

當客戶端請求 www.sina.com.cn 主頁,請求數據包穿過網絡到達 Sina 的 LVS 服務器網卡:源 IP 是客戶端 IP 地址 CIP,目的 IP 是新浪對外的服務器 IP 地址,也就是 VIP;此時源 MAC 地址是 CMAC,實際上是 LVS 鏈接的路由器的 MAC 地址(爲了容易理解記爲 CMAC),目標 MAC 地址是 VIP 對應的 MAC,記爲 VMAC

數據包通過鏈路層到達 PREROUTING 位置(剛進入網絡層),查找路由發現目的 IP 是 LVS 的 VIP,就會遞送到 INPUT 鏈上,此時數據包 MAC、IP、Port 都沒有修改。

數據包到達 INPUT 鏈,INPUT 是 LVS 主要工做的位置。此時 LVS 會根據目的 IP 和 Port 來確認是不是 LVS 定義的服務,若是是定義過的 VIP 服務,就會根據配置信息,從真實服務器列表 中選擇一個做爲 RS1,而後以 RS1 做爲目標查找 Out 方向的路由,肯定一下跳信息以及數據包要經過哪一個網卡發出。最後將數據包投遞到 OUTPUT 鏈上。

數據包經過 POSTROUTING 鏈後,從網絡層轉到鏈路層,將目的 MAC 地址修改成 RealServer 服務器 MAC 地址,記爲 RMAC;而源 MAC 地址修改成 LVS 與 RS 同網段的 selfIP 對應的 MAC 地址,記爲 DMAC。此時,數據包經過交換機轉發給了 RealServer 服務器(注:爲了簡單圖中沒有畫交換機)。

請求數據包到達後端真實服務器後,鏈路層檢查目的 MAC 是本身網卡地址。到了網絡層,查找路由,目的 IP 是 VIP(lo 上配置了 VIP),斷定是本地主機的數據包,通過協議棧拷貝至應用程序(好比 nginx 服務器),nginx 響應請求後,產生響應數據包。

而後以 CIP 查找出方向的路由,肯定下一跳信息和發送網卡設備信息。此時數據包源、目的 IP 分別是 VIP、CIP,而源 MAC 地址是 RS1 的 RMAC,目的 MAC 是下一跳(路由器)的 MAC 地址,記爲 CMAC(爲了容易理解,記爲 CMAC)。而後數據包經過 RS 相連的路由器轉發給真正客戶端,完成了請求響應的全過程。

從整個過程能夠看出,DR 模式 LVS 邏輯比較簡單,數據包經過直接路由方式轉發給後端服務器,並且響應數據包是由 RS 服務器直接發送給客戶端,不通過 LVS。

咱們知道一般請求數據包會比較小,響應報文較大,通過 LVS 的數據包基本上都是小包,因此這也是 LVS 的 DR 模式性能強大的主要緣由。

(二)優缺點和使用場景

  • DR 模式的優勢
  1. 響應數據不通過 lvs,性能高
  2. 對數據包修改小,信息保存完整(攜帶客戶端源 IP)
  • DR 模式的缺點
  1. lvs 與 rs 必須在同一個物理網絡(不支持跨機房)
  2. 服務器上必須配置 lo 和其它內核參數
  3. 不支持端口映射
  • DR 模式的使用場景

若是對性能要求很是高,能夠首選 DR 模式,並且能夠透傳客戶端源 IP 地址。

NAT 模式實現原理

lvs 的第 2 種工做模式是 NAT 模式,下圖詳細介紹了數據包從客戶端進入 lvs 後轉發到 rs,後經 rs 再次將響應數據轉發給 lvs,由 lvs 將數據包回覆給客戶端的整個過程。

(一)實現原理與過程

用戶請求數據包通過層層網絡,到達 lvs 網卡,此時數據包源 IP 是 CIP,目的 IP 是 VIP。

通過網卡進入網絡層 prerouting 位置,根據目的 IP 查找路由,確認是本機 IP,將數據包轉發到 INPUT 上,此時源、目的 IP 都未發生變化。

到達 lvs 後,經過目的 IP 和目的 port 查找是否爲 IPVS 服務。如果 IPVS 服務,則會選擇一個 RS 做爲後端服務器,將數據包目的 IP 修改成 RIP,並以 RIP 爲目的 IP 查找路由信息,肯定下一跳和出口信息,將數據包轉發至 output 上。

修改後的數據包通過 postrouting 和鏈路層處理後,到達 RS 服務器,此時的數據包源 IP 是 CIP,目的 IP 是 RIP。

到達 RS 服務器的數據包通過鏈路層和網絡層檢查後,被送往用戶空間 nginx 程序。nginx 程序處理完畢,發送響應數據包,因爲 RS 上默認網關配置爲 lvs 設備 IP,因此 nginx 服務器會將數據包轉發至下一跳,也就是 lvs 服務器。此時數據包源 IP 是 RIP,目的 IP 是 CIP。

lvs 服務器收到 RS 響應數據包後,根據路由查找,發現目的 IP 不是本機 IP,且 lvs 服務器開啓了轉發模式,因此將數據包轉發給 forward 鏈,此時數據包未做修改。

lvs 收到響應數據包後,根據目的 IP 和目的 port 查找服務和鏈接表,將源 IP 改成 VIP,經過路由查找,肯定下一跳和出口信息,將數據包發送至網關,通過複雜的網絡到達用戶客戶端,最終完成了一次請求和響應的交互。

NAT 模式雙向流量都通過 LVS,所以 NAT 模式性能會存在必定的瓶頸。不過與其它模式區別的是,NAT 支持端口映射,且支持 windows 操做系統。

(二)優勢、缺點與使用場景

  • NAT 模式優勢
  1. 可以支持 windows 操做系統
  2. 支持端口映射。若是 rs 端口與 vport 不一致,lvs 除了修改目的 IP,也會修改 dport 以支持端口映射。
  • NAT 模式缺點
  1. 後端 RS 須要配置網關
  2. 雙向流量對 lvs 負載壓力比較大
  • NAT 模式的使用場景

若是你是 windows 系統,使用 lvs 的話,則必須選擇 NAT 模式了。

Tunnel 模式實現原理

Tunnel 模式在國內使用的比較少,不過聽說騰訊使用了大量的 Tunnel 模式。它也是一種單臂的模式,只有請求數據會通過 lvs,響應數據直接從後端服務器發送給客戶端,性能也很強大,同時支持跨機房。下邊繼續看圖分析原理。

(一)實現原理與過程

用戶請求數據包通過多層網絡,到達 lvs 網卡,此時數據包源 IP 是 cip,目的 ip 是 vip。

通過網卡進入網絡層 prerouting 位置,根據目的 ip 查找路由,確認是本機 ip,將數據包轉發到 input 鏈上,到達 lvs,此時源、目的 ip 都未發生變化。

到達 lvs 後,經過目的 ip 和目的 port 查找是否爲 IPVS 服務。如果 IPVS 服務,則會選擇一個 rs 做爲後端服務器,以 rip 爲目的 ip 查找路由信息,肯定下一跳、dev 等信息,而後 IP 頭部前邊額外增長了一個 IP 頭(以 dip 爲源,rip 爲目的 ip),將數據包轉發至 output 上。

數據包根據路由信息經最終通過 lvs 網卡,發送至路由器網關,經過網絡到達後端服務器。

後端服務器收到數據包後,ipip 模塊將 Tunnel 頭部卸載,正常看到的源 ip 是 cip,目的 ip 是 vip,因爲在 tunl0 上配置 vip,路由查找後斷定爲本機 ip,送往應用程序。應用程序 nginx 正常響應數據後以 vip 爲源 ip,cip 爲目的 ip 數據包發送出網卡,最終到達客戶端。

Tunnel 模式具有 DR 模式的高性能,又支持跨機房訪問,聽起來比較完美。不過國內運營商有必定特點性,好比 RS 的響應數據包的源 IP 爲 VIP,VIP 與後端服務器有可能存在跨運營商的狀況,頗有可能被運營商的策略封掉,Tunnel 在生產環境確實沒有使用過,在國內推行 Tunnel 可能會有必定的難度吧。

(二)優勢、缺點與使用場景

  • Tunnel 模式的優勢
  1. 單臂模式,對 lvs 負載壓力小
  2. 對數據包修改較小,信息保存完整
  3. 可跨機房(不過在國內實現有難度)
  • Tunnel 模式的缺點
  1. 須要在後端服務器安裝配置 ipip 模塊
  2. 須要在後端服務器 tunl0 配置 vip
  3. 隧道頭部的加入可能致使分片,影響服務器性能
  4. 隧道頭部 IP 地址固定,後端服務器網卡 hash 可能不均
  5. 不支持端口映射
  • Tunnel 模式的使用場景

理論上,若是對轉發性能要求較高,且有跨機房需求,Tunnel 多是較好的選擇。

到此爲止,已經將 LVS 原理講清楚了,內容比較多,建議多看兩遍,因爲文章篇幅太長,實踐操做的內容就放到下篇文章再來說好了。

謝謝你們,我是肖邦,歡迎關注後續的精彩內容。

推薦閱讀:

相關文章
相關標籤/搜索