Nginx七層負載均衡實戰

1.Nginx負載均衡基本概述

①爲何要使用負載均衡php

當咱們的Web服務器直接面向用戶,每每要承載大量併發請求,單臺服務器難以負荷,我使用多臺Web服務器組成集 羣,前端使用Nginx負載均衡,將請求分散的打到咱們的後端服務器集羣中,實現負載的分發。那麼會大大提高系統的吞 吐率、請求性能、高容災。
image.pngcss

每每咱們接觸的最多的是SLB(Server Load Balance)負載均衡,實現最多的也是SLB、那麼SLB它的調度節點和服務節 點一般是在一個地域裏面。那麼它在這個小的邏輯地域裏面決定了他對部分服務的實時性、響應性是很是好的。
因此說當海量用戶請求過來之後,它一樣是請求調度節點,調度節點將用戶的請求轉發給後端對應的服務節點,服務節點 處理完請求後在轉發給調度節點,調度節點最後響應給用戶節點。這樣也能實現一個均衡的做用,那麼Nginx則是一個典 型的SLB。html

②負載均衡的叫法前端

負載均衡  
負載  
Load Balance  
LB

③公有云中叫法node

SLB 阿里雲負載均衡  
QLB 青雲負載均衡  
CLB 騰訊雲負載均衡  
ULB ucloud負載均衡

④常見的負載均衡的軟件nginx

Nginx  
Haproxy  
LVS

image.png
⑤負載均衡能實現的應用場景一: 四層負載均衡c++

所謂四層負載均衡指的是OSI七層模型中的傳輸層,那麼傳輸層Nginx已經能支持TCP/IP的控制,因此只須要對客戶端 的請求進行TCP/IP協議的包轉發就能夠實現負載均衡,那麼它的好處是性能很是快、只須要底層進行應用處理,而不須要進行一些複雜的邏輯。
image.pnggit

⑥負載均衡能實現的應用場景二:七層負載均衡github

七層負載均衡它是在應用層,那麼它能夠完成不少應用方面的協議請求,好比咱們說的http應用的負載均衡,它能夠實現 http信息的改寫、頭信息的改寫、安全應用規則控制、URL匹配規則控制、以及轉發、rewrite等等的規則,因此在應用 層的服務裏面,咱們能夠作的內容就更多,那麼Nginx則是一個典型的七層負載均衡SLB。
image.pngweb

⑦四層負載均衡與七層負載均衡區別

四層負載均衡數據包在底層就進行了分發,而七層負載均衡數據包則是在最頂層進行分發、由此能夠看出,七層負載均衡 效率沒有四負載均衡高。
七層負載均衡更貼近於服務,如:http協議就是七層協議,咱們能夠用Nginx能夠做會話保持,URL路徑規則匹 配、head頭改寫等等,這些是四層負載均衡沒法實現的。
注意:四層負載均衡不識別域名,七層負載均衡識別域名。

2.Nginx負載均衡配置場景

Nginx要實現七層負載均衡須要用到proxy_pass代理模塊配置. Nginx負載均衡與Nginx代理不一樣地方在於,Nginx的一個location僅能代理一臺服務器,而Nginx負載均衡則是將客戶端請求代理轉發至一組upstream虛擬服務池。

image.png

  • Nginx upstream虛擬配置語法
Syntax: upstream name { ... }
Default: ‐
Context: http

# upstream例
upstream backend {
	server backend1.example.com weight=5;
	server backend2.example.com:8080;
	server unix:/tmp/backend3;
	server backup1.example.com:8080 backup;
}
server {
	location / {
		proxy_pass http://backend;
}

①環境準備

角色 外網IP(NAT) 內網IP(LAN) 主機名
LB01 eth0:10.0.0.5 eth1:172.16.1.5 lb01
WEB01 eth0:10.0.0.7 eth1:172.16.1.7 web01
WEB02 eth0:10.0.0.8 eth1:172.16.1.8 web02

②Web01服務器上配置nginx

[root@web01 ~]# cd /etc/nginx/conf.d/  
[root@web01 conf.d]# cat node.conf   
server {      
    listen 80;      
    server_name node.pingface.com;      
    location / {          
        root /node;          
        index index.html;      
    }  
}  
[root@web01 conf.d]# mkdir /node  [root@web01 conf.d]# echo "Web01..." > /node/index.html  [root@web01 conf.d]# systemctl restart nginx

③Web02服務器上配置nginx

[root@web02 ~]# cd /etc/nginx/conf.d/  
[root@web02 conf.d]# cat node.conf   
server {      
    listen 80;      
    server_name node.pingface.com;      
    location / {          
        root /node;          
        index index.html;      
    }
}  
[root@web02 conf.d]# mkdir /node
[root@web02 conf.d]# echo "Web02..." > /node/index.html
[root@web02 conf.d]# systemctl restart nginx

④準備Nginx負載均衡調度使用的proxy_params

[root@Nginx ~]# vim /etc/nginx/proxy_params  
    
proxy_set_header Host $http_host;  
proxy_set_header X‐Real‐IP $remote_addr;  
proxy_set_header X‐Forwarded‐For $proxy_add_x_forwarded_for; 
proxy_connect_timeout 30;  
proxy_send_timeout 60;  
proxy_read_timeout 60; 
proxy_buffering on;  
proxy_buffer_size 32k;  
proxy_buffers 4 128k;

⑤配置Nginx負載均衡

[root@lb01 ~]# cd /etc/nginx/conf.d/  
[root@lb01 conf.d]# cat node_proxy.conf   
upstream node {      
    server 172.16.1.7:80;      
    server 172.16.1.8:80;  
}  
server {      
    listen 80;      
    server_name node.pingface.com; 
    location / {          
        proxy_pass http://node;          
        include proxy_params;      
    }  
}  
[root@lb01 conf.d]# systemctl restart nginx

打開瀏覽器訪問:http://node.pingfacecom

⑥負載均衡常見典型故障

若是後臺服務鏈接超時,Nginx是自己是有機制的,若是出現一個節點down掉的時候,Nginx會更據你具體負載均衡的 設置,將請求轉移到其餘的節點上,可是,若是後臺服務鏈接沒有down掉,可是返回錯誤異常碼瞭如:50四、50二、500, 這個時候你須要加一個負載均衡的設置,以下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,當其中一臺返回錯誤碼404,500…等錯誤時,能夠分配到下一臺服務器程序繼續處理,提升平臺訪問成功率。
server {      
    listen 80;      
    server_name node.pingface.com; 
    location / {          
        proxy_pass http://node;          proxy_next_upstream error timeout http_500 http_502 http_503 http_504;      
    }  
}

3.Nginx負載均衡調度算法

調度算法 概述
輪詢 按時間順序逐一分配到不一樣的後端服務器(默認),rr輪詢
weight 加權輪詢,weight值越大,分配到的訪問概率越高
ip_hash 每一個請求按訪問IP的hash結果分配,這樣來自同一IP的固定訪問一個後端服務器
url_hash 按照訪問URL的hash結果來分配請求,是每一個URL定向到同一個後端服務器
least_conn 最少連接數,那個機器連接數少就分

①Nginx負載均衡[rr]輪詢具體配置

upstream load_pass {      
    server 10.0.0.7:80;     
    server 10.0.0.8:80;  
}

②Nginx負載均衡[wrr]權重輪詢具體配置

upstream load_pass {      
    server 10.0.0.7:80 weight=5;      
    server 10.0.0.8:80;  
}

③Nginx負載均衡ip_hash

具體配置不能和weight一塊兒使用

# 若是客戶端都走相同代理, 會致使某一臺服務器鏈接過多  
upstream load_pass {      
    ip_hash;      
    server 10.0.0.7:80; 
    server 10.0.0.8:80;  
}

4.Nginx負載均衡後端狀態

後端Web服務器在前端Nginx負載均衡調度中的狀態

狀態 概述
down 當前的server暫時不參與負載均衡
backup 預留的備份服務器
max_fails 容許請求失敗的次數
fail_timeout 通過max_fails失敗後, 服務暫停時間
max_conns 限制最大的接收鏈接數

①down狀態測試

該Server不參與負載均衡的調度

upstream load_pass {      
	# 不參與任何調度, 通常用於停機維護      
	server 10.0.0.7:80 down;  
}

②測試backup以及down狀態

upstream load_pass {      
    server 10.0.0.7:80 down;      
    server 10.0.0.8:80 backup;      
    server 10.0.0.9:80 max_fails=1 fail_timeout=10s;  
} 
location  / {      
    proxy_pass http://load_pass;      
    include proxy_params;  
}

③測試max_fails失敗次數和fail_timeout多少時間內失敗多少次則標記down

upstream load_pass {      
    server 10.0.0.7:80;      
    server 10.0.0.8:80 max_fails=2 fail_timeout=10s;  
}

④測試max_conns最大TCP鏈接數

upstream load_pass {      
    server 10.0.0.7:80;      
    server 10.0.0.8:80 max_conns=1;  
}

5.Nginx負載均衡健康檢查

在Nginx官方模塊提供的模塊中,沒有對負載均衡後端節點的健康檢查模塊,但可使用第三方模塊。 nginx_upstream_check_module來檢測後端服務的健康狀態。

健康檢查模塊下載

①安裝依賴包

[root@lb02 ~]# yum install ‐y gcc glibc gcc‐c++ pcre‐devel openssl‐devel patch

②下載nginx源碼包以及nginx_upstream_check模塊第三方模塊

[root@lb02 ~]# wget http://nginx.org/download/nginx‐1.14.2.tar.gz  
[root@lb02 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip

③解壓nginx源碼包以及第三方模塊

[root@lb02 ~]# tar xf nginx‐1.14.2.tar.gz  [root@lb02 ~]# unzip master.zip

④進入nginx目錄,打補丁(nginx的版本是1.14補丁就選擇1.14的,p1表明在nginx目錄,p0是不在nginx目錄)

[root@lb02 ~]# cd nginx‐1.14.2/ 
    
[root@lb02 nginx‐1.14.2]# patch ‐p1 <../nginx_upstream_check_modulemaster/check_1.14.0+.patch  ./configure ‐‐prefix=/etc/nginx ‐‐sbin‐path=/usr/sbin/nginx ‐‐modulespath=/usr/lib64/nginx/modules ‐‐conf‐path=/etc/nginx/nginx.conf ‐‐error‐logpath=/var/log/nginx/error.log ‐‐http‐log‐path=/var/log/nginx/access.log ‐‐pidpath=/var/run/nginx.pid ‐‐lock‐path=/var/run/nginx.lock ‐‐http‐client‐body‐temppath=/var/cache/nginx/client_temp ‐‐http‐proxy‐temp‐path=/var/cache/nginx/proxy_temp ‐‐httpfastcgi‐temp‐path=/var/cache/nginx/fastcgi_temp ‐‐http‐uwsgi‐temppath=/var/cache/nginx/uwsgi_temp ‐‐http‐scgi‐temp‐path=/var/cache/nginx/scgi_temp ‐user=nginx ‐‐group=nginx ‐‐with‐compat ‐‐with‐file‐aio ‐‐with‐threads ‐‐withhttp_addition_module ‐‐with‐http_auth_request_module ‐‐with‐http_dav_module ‐‐withhttp_flv_module ‐‐with‐http_gunzip_module ‐‐with‐http_gzip_static_module ‐‐withhttp_mp4_module ‐‐with‐http_random_index_module ‐‐with‐http_realip_module ‐‐withhttp_secure_link_module ‐‐with‐http_slice_module ‐‐with‐http_ssl_module ‐‐withhttp_stub_status_module ‐‐with‐http_sub_module ‐‐with‐http_v2_module ‐‐with‐mail ‐‐withmail_ssl_module ‐‐with‐stream ‐‐with‐stream_realip_module ‐‐with‐stream_ssl_module ‐‐withstream_ssl_preread_module ‐‐add‐module=/root/nginx_upstream_check_module‐master ‐‐with‐ccopt='‐O2 ‐g ‐pipe ‐Wall ‐Wp,‐D_FORTIFY_SOURCE=2 ‐fexceptions ‐fstack‐protector‐strong ‐param=ssp‐buffer‐size=4 ‐grecord‐gcc‐switches ‐m64 ‐mtune=generic ‐fPIC' ‐‐with‐ld‐opt='Wl,‐z,relro ‐Wl,‐z,now ‐pie'  
    
[root@lb02 nginx‐1.14.2]# make && make install

⑤在已有的負載均衡上增長健康檢查的功能

[root@lb01 conf.d]# cat proxy_web.conf 
upstream web {      
    server 172.16.1.7:80 max_fails=2 fail_timeout=10s;      
    server 172.16.1.8:80 max_fails=2 fail_timeout=10s;      
    check interval=3000 rise=2 fall=3 timeout=1000 type=tcp;      
    #interval  檢測間隔時間,單位爲毫秒      
    #rise      表示請求2次正常,標記此後端的狀態爲up      
    #fall      表示請求3次失敗,標記此後端的狀態爲down      
    #type      類型爲tcp      
    #timeout   超時時間,單位爲毫秒  } 
server {      
    listen 80;      
    server_name web.pingface.com;      
    location / {          
        proxy_pass http://web;          
        include proxy_params;      
    } 
    location /upstream_check {          
        check_status;      
    }  
}

6.Nginx負載均衡會話保持

在使用負載均衡的時候會遇到會話保持的問題,可經過以下方式進行解決。  
1.使用nginx的ip_hash,根據客戶端的IP,將請求分配到對應的IP上  
2.基於服務端的session會話共享(NFS,MySQL,memcache,redis,file)

在解決負載均衡繪畫問題,咱們須要瞭解session和cookie的區別。  
瀏覽器端存的是cookie每次瀏覽器發請求到服務端時,報文頭是會自動添加cookie信息的。  
服務端會查詢用戶的cookie做爲key去存儲裏找對應的value(session)同一域名下的網站的cookie都是同樣的,因此不管幾臺服務器,不管請求分配到哪一臺服務器上同一用戶的cookie是不變的。也就是說cookie對應的session也是惟一的。因此這裏只要保證多臺業務服務器訪問同一個共享存儲服務器(NFS,MySQL,memcache,redis,file)就好了

6.1使用磁盤(本地文件)存儲session

①配置Nginx

[root@web01 conf.d]# cat php.conf  
server {      
    listen 80;      
    server_name php.pingface.com;      
    root /code/phpMyAdmin‐4.8.4‐all‐languages; 
    location / {          
        index index.php index.html;      
    } 
    location ~ \.php$ {          
        fastcgi_pass 127.0.0.1:9000;          fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;          include fastcgi_params;      
    }  
}  
[root@web01 conf.d]# systemctl restart nginx

②安裝phpmyadmin (web01和web02上都裝)

PHP版本要在7.0以上

[root@web01 conf.d]# cd /code  [root@web01 code]# wget https://files.phpmyadmin.net/phpMyAdmin/4.8.4/phpMyAdmin‐4.8.4‐alllanguages.zip  
[root@web01 code]# unzip phpMyAdmin‐4.8.4‐all‐languages.zip

③配置phpmyadmin鏈接遠程的數據庫

[root@web01 code]# cd phpMyAdmin‐4.8.4‐all‐languages/  
[root@web01 phpMyAdmin‐4.8.4‐all‐languages]# cp config.sample.inc.php config.inc.php  [root@web01 phpMyAdmin‐4.8.4‐all‐languages]# vim config.inc.php  
/* Server parameters */  
$cfg['Servers'][$i]['host'] = '172.16.1.51';

④配置受權

[root@web01 conf.d]# chown ‐R www.www /var/lib/php

使用瀏覽器訪問頁面,獲取cookie信息

[root@web01 phpMyAdmin‐4.8.4‐all‐languages]# ll /var/lib/php/session/  總用量 4  ‐rw‐‐‐‐‐‐‐. 1 www www 2424 8月  21 18:41 sess_80a339880e754b1919d3004754f40f15

⑤將web01上配置好的phpmyadmin以及nginx的配置文件推送到web02主機上

[root@web01 code]# scp ‐rp  phpMyAdmin‐4.8.4‐all‐languages root@172.16.1.8:/code/  [root@web01 code]# scp /etc/nginx/conf.d/php.conf  root@172.16.1.8:/etc/nginx/conf.d/

⑥在web02上重載Nginx服務

[root@web02 code]# systemctl restart nginx

⑦受權

[root@web02 code]# chown ‐R www.www /var/lib/php/

⑧接入負載均衡

[root@lb01 conf.d]# vim proxy_php.com.conf   
upstream php {          
    server 172.16.1.7:80;          
    server 172.16.1.8:80;  
}  
server { 
        listen 80;          
    server_name php.pingface.com;          
    location / {                  
        proxy_pass http://php;                  
        include proxy_params;          
    }  
} 
[root@lb01 conf.d]# nginx ‐t  nginx: the configuration file /etc/nginx/nginx.conf syntax is ok nginx: configuration file /etc/nginx/nginx.conf test is successful  [root@lb01 conf.d]# systemctl restart nginx

使用負載均衡的輪詢功能以後,會發現,若是將session保存在本地文件的話,永遠都登陸不上去php.pingface.com
image.png

6.2使用redis解決會話登陸問題

①安裝redis內存數據庫

[root@db01 ~]# yum install redis ‐y

②配置redis監聽在172.16.1.0網段上

[root@db01 ~]# sed  ‐i '/^bind/c bind 127.0.0.1 172.16.1.51' /etc/redis.conf

③啓動redis

[root@db01 ~]# systemctl start redis  
[root@db01 ~]# systemctl enable redis

④php配置session鏈接redis

# 1.修改/etc/php.ini文件  
[root@web ~]# vim /etc/php.ini  
session.save_handler = redis  
session.save_path = "tcp://172.16.1.51:6379"  
;session.save_path = "tcp://172.16.1.51:6379?auth=123" #若是redis存在密碼,則使用該方式 session.auto_start = 1 

# 2.註釋php‐fpm.d/www.conf裏面的兩條內容,不然session內容會一直寫入/var/lib/php/session目錄中  ;php_value[session.save_handler] = files  
;php_value[session.save_path]    = /var/lib/php/session

⑤重啓php-fpm

[root@web01 code]# systemctl restart php‐fpm

⑥將web01上配置好的文件推送到web02

[root@web01 code]# scp /etc/php.ini root@172.16.1.8:/etc/php.ini    
[root@web01 code]# scp /etc/php‐fpm.d/www.conf root@172.16.1.8:/etc/php‐fpm.d/www.conf

⑦web02上重啓php-fpm

[root@web02 code]# systemctl restart php‐fpm

⑧redis查看數據

[root@db01 ~]# redis‐cli   127.0.0.1:6379> keys *  
1) "PHPREDIS_SESSION:f96f184460e8ca9dfdc65f3e70cca79c"

image.png

相關文章
相關標籤/搜索