【2018.07.04學習筆記】【linux高級知識 18.6-18.10】

18.6 負載均衡集羣介紹

負載均衡集羣比較主流的開源軟件有:LVS、keepalived、haproxy、nginx等,其中LVS屬於4層(網絡OSI 7層模型),nginx屬於7層,haproxy既能夠認爲是4層,也能夠當作7層使用。nginx

LVS:4層的負載均衡是能夠分發除80外的其餘端口通訊的,例如MySQL的3306端口,而nginx僅僅支持http,https,mail;算法

haproxy也支持MySQL,相比較LVS這種4層的更穩定,能承受更多的請求,keepalived的負載均衡功能其實就是lvs。vim

而nginx這種7層的更加靈活,能實現更多的個性化需求。後端

商業的負載均衡解決方案穩定性比較好,可是成本很是昂貴,因此以開源的LVS爲主。服務器

18.7 LVS介紹

LVS(Linux Virtual Server)是由國內大牛章文嵩開發的,它是基於Linux2.6內核的,已經有不少年沒有更新了。網絡

LVS架構中有一個核心角色叫作分發器(Load balance),它用來分發用戶的請求,還有諸多處理用戶請求的服務器(Real Server,簡稱rs)。架構

LVS有三種常見的模式:NAT模式、IP Tunnel(IP隧道)模式、DR模式。負載均衡

1、NAT模式

1)這種模式藉助iptables的nat表來實現;

2)用戶的請求到分發器後,經過預設的iptables規則,把請求的數據包轉發到後端的rs上去;

3)rs須要設定網關爲分發器的內網ip;

4)用戶請求的數據包和返回給用戶的數據包所有通過分發器,因此分發器成爲瓶頸;

5)在nat模式中,只須要分發器有公網ip便可,因此比較節省公網ip資源;

2、IP Tunnel模式

1)這種模式,須要有一個公共的IP配置在分發器和全部rs上,咱們把它叫作vip;

2)客戶端請求的目標IP爲vip,分發器接收到請求數據包後,會對數據包作一個加工,會把目標IP改成rs的IP,這樣數據包就到了rs上;

3)rs接收數據包後,會還原原始數據包,這樣目標IP爲vip,由於全部rs上配置了這個vip,因此它會認爲是它本身;

調度器(Load Balancer)將請求報文封裝在另外一個IP報文中,再將封裝後的IP報文轉發給真實服務器。真實服務器收到報文後,先將報文解封得到原來目標地址爲VIP的報文,服務器發現VIP地址被配置在本地的IP隧道設備上,全部就處理這個請求,而後根據路由表將響應報文直接返回給客戶。這種模式下,須要給調度器和全部的真實服務器所有分配公網IP,全部比較浪費公網IP。

DR模式

1)這種模式,也須要有一個公共的IP配置在分發器和全部rs上,也就是vip;

2)和IP Tunnel不一樣的是,它會把數據包的MAC地址修改成rs的MAC地址;

3)rs接收數據包後,會還原原始數據包,這樣目標IP爲vip,由於全部rs上配置了這個vip,因此它會認爲是它本身;

NAT模式適合小型的集羣,機器數量很少,它的優點是節省公網IP。而IP Tunnel和DR相差不大,都能支撐較大規模的集羣,但缺點是浪費公網IP。curl

18.8 LVS調度算法

調度器把客戶端發來的請求均衡地分發給後端的真實服務器,這是依靠預先設定好的調度算法實現的,在LVS中支持的調度算法主要有如下8種;函數

一、 輪詢調度(Round-Robin-rr)

很是簡單的一種調度算法,就是按順序把請求一次發送給後端的服務器,它無論後端服務器的處理速度和相應時間怎樣。但當後端服務器性能不一致時,用這種調度算法就不合適了;

二、 加權輪詢(Weight Round-Robin-wrr)

比第一種算法多了一個權重的設置,權重越高的服務器被分配到的請求就越多,這樣後端服務器性能不一致時,就能夠給配置低的服務器較小的權重;

三、 最小鏈接(Least-Connection-lc)

這種算法會根據各真實服務器上的鏈接數來決定把新的請求分配給誰,鏈接數越少說明服務器是空閒的,這樣把新的請求分配到空閒服務器上才更加合理;

四、 加權最小鏈接(Weight Least-Connection-wlc)

在最小鏈接調度的基礎上再增長一個權重設置,這樣就能夠人爲地去控制哪些服務器上多分配請求,哪些少分配請求;

五、 基於局部性的最小鏈接(Locality-Based Least Connections-lblc)

是針對請求報文的目標IP地址的負載均衡調度,目前主要用於Cache集羣系統,由於在Cache集羣中客戶請求報文的目標IP地址使變化的。算法設計的穆鳥是在服務器的負載在基本平衡的狀況下,將相同目標IP的請求調度到同一臺服務器,來提升各臺服務器的訪問局部性和貯存Cache命中率;

六、 帶複製的基於局部性最小鏈接(Locality-Based Least Connections with Replication-lblcr)

也是針對目標IP地址的負載均衡,它與LBLC算法的不一樣之處是:它要維護從一個目標IP地址到一組服務器的映射,而LBLC算法是維護一個目標IP地址到一臺服務器的映射。LBLCR算法先更換請求的目標IP地址找出該目標IP地址對應的服務器組,按「最小鏈接」原則從該服務器組中選出一臺服務器,若服務器沒有超載,則將請求發送到該服務器;若服務器超載,則按「最小鏈接」原則從整個集羣中選出一臺服務器,將該服務器加入到服務器組中,將請求發送到該服務器。同時,當該服務器組有一段時間沒有被修改,將最忙的服務器從服務器組中刪除,以下降複製的程度;

七、 目標地址散列調度(Destination Hashing-dh)

該算法也是針對目標IP地址的負載均衡的,但它是一種靜態映射算法,經過一個散列(hash)函數講一個目標IP地址映射到一臺服務器。目標地址散列調度算法先根據請求的目標IP地址,做爲散列建(hash key)從靜態分配的散列表找出對應的服務器,若該服務器是可用的且未超載,將請求發送到該服務器,不然返回空。

八、源地址散列調度(Source Hashing-sh)

該算法正好與目標地址散列調度算法相反,它根據請求的源IP地址,做爲散列鍵從靜態分配的散列表找出對應的服務器,若該服務器是可用的且未超載,將請求發送到該服務器,不然返回空。它的算法流程與目標地址散列調度算法基本相似,只不過請求的目標IP地址換成請求的源IP地址。

18.9/18.10 LVS NAT模式搭建

須要準備三臺機器:A、B、C

A:做爲分發器(調度器),dir角色。 B和C爲:後端真正處理事物的服務器,rs角色

一、網段配置:

A設置兩張網卡,ens33爲內網:192.168.87.12八、ens37爲外網(虛擬機僅主機模式):192.168.130.150

B設置一張網卡,ens33爲內網:192.168.87.130,網關必須是A的內網ip:192.168.87.128

C設置一張網卡,ens33爲內網:192.168.87.132,網關必須是A的內網ip:192.168.87.128

二、安裝LVS的核心組件工具:ipvsadm

yum install -y ipvsadm

三、編寫腳本並執行:/usr/local/sbin/lvs_nat.sh

[root@nginx ~]# vim /usr/local/sbin/lvs_nat.sh
 
# director 服務器上開啓路由轉發功能
echo 1 /proc/sys/net/ipv4/ip_forward
# 關閉icmp的重定向
echo 0  /proc/sys/net/ipv4/conf/all/send_redirects
echo 0  /proc/sys/net/ipv4/conf/default/send_redirects
# 注意區分網卡名字,兩個網卡分別爲ens33和ens37
echo 0  /proc/sys/net/ipv4/conf/ens33/send_redirects   //內網
echo 0  /proc/sys/net/ipv4/conf/ens37/send_redirects    //外網
# director 設置nat防火牆
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.87.0/24  -j MASQUERADE
# director設置ipvsadm
IPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.130.150:80 -s rr
$IPVSADM -a -t 192.168.130.150:80 -r 192.168.30.130:80 -m -w 1
$IPVSADM -a -t 192.168.130.150:80 -r 192.168.30.132:80 -m -w 1
 
[root@nginx ~]# sh /usr/local/sbin/lvs_nat.sh  //執行腳本

四、查看配置結果,測試驗證:

[root@nginx ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
    RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.130.150:80 rr
     192.168.30.130:80            Masq    1      0          18        
     192.168.30.132:80            Masq    1      0          4  

[root@nginx ~]# curl 192.168.130.150
This is RS1 !
[root@nginx ~]# curl 192.168.130.150
This is RS2 !
[root@nginx ~]# curl 192.168.130.150
This is RS1 !
[root@nginx ~]# curl 192.168.130.150
This is RS2 !
相關文章
相關標籤/搜索