①爲何要使用負載均衡php
當咱們的Web服務器直接面向用戶,每每要承載大量併發請求,單臺服務器難以負荷,我使用多臺Web服務器組成集 羣,前端使用Nginx負載均衡,將請求分散的打到咱們的後端服務器集羣中,實現負載的分發。那麼會大大提高系統的吞 吐率、請求性能、高容災。
css
每每咱們接觸的最多的是SLB(Server Load Balance)負載均衡,實現最多的也是SLB、那麼SLB它的調度節點和服務節 點一般是在一個地域裏面。那麼它在這個小的邏輯地域裏面決定了他對部分服務的實時性、響應性是很是好的。
因此說當海量用戶請求過來之後,它一樣是請求調度節點,調度節點將用戶的請求轉發給後端對應的服務節點,服務節點 處理完請求後在轉發給調度節點,調度節點最後響應給用戶節點。這樣也能實現一個均衡的做用,那麼Nginx則是一個典 型的SLB。html
②負載均衡的叫法前端
負載均衡 負載 Load Balance LB
③公有云中叫法node
SLB 阿里雲負載均衡 QLB 青雲負載均衡 CLB 騰訊雲負載均衡 ULB ucloud負載均衡
④常見的負載均衡的軟件nginx
Nginx Haproxy LVS
⑤負載均衡能實現的應用場景一: 四層負載均衡c++
所謂四層負載均衡
指的是OSI七層模型中的傳輸層,那麼傳輸層Nginx已經能支持TCP/IP的控制,因此只須要對客戶端 的請求進行TCP/IP協議的包轉發就能夠實現負載均衡,那麼它的好處是性能很是快、只須要底層進行應用處理,而不須要進行一些複雜的邏輯。
git
⑥負載均衡能實現的應用場景二:七層負載均衡github
七層負載均衡
它是在應用層,那麼它能夠完成不少應用方面的協議請求,好比咱們說的http應用的負載均衡,它能夠實現 http信息的改寫、頭信息的改寫、安全應用規則控制、URL匹配規則控制、以及轉發、rewrite等等的規則,因此在應用 層的服務裏面,咱們能夠作的內容就更多,那麼Nginx則是一個典型的七層負載均衡SLB。
web
⑦四層負載均衡與七層負載均衡區別
四層負載均衡
數據包在底層就進行了分發,而七層負載均衡數據包則是在最頂層進行分發、由此能夠看出,七層負載均衡 效率沒有四負載均衡高。
七層負載均衡
更貼近於服務,如:http協議就是七層協議,咱們能夠用Nginx能夠做會話保持,URL路徑規則匹 配、head頭改寫等等,這些是四層負載均衡沒法實現的。
注意:四層負載均衡不識別域名,七層負載均衡識別域名。
Nginx要實現七層負載均衡
須要用到proxy_pass
代理模塊配置. Nginx負載均衡與Nginx代理不一樣地方在於,Nginx的一個location僅能代理一臺服務器,而Nginx負載均衡則是將客戶端請求代理轉發至一組upstream虛擬服務池。
Syntax: upstream name { ... } Default: ‐ Context: http # upstream例 upstream backend { server backend1.example.com weight=5; server backend2.example.com:8080; server unix:/tmp/backend3; server backup1.example.com:8080 backup; } server { location / { proxy_pass http://backend; }
①環境準備
角色 | 外網IP(NAT) | 內網IP(LAN) | 主機名 |
---|---|---|---|
LB01 | eth0:10.0.0.5 | eth1:172.16.1.5 | lb01 |
WEB01 | eth0:10.0.0.7 | eth1:172.16.1.7 | web01 |
WEB02 | eth0:10.0.0.8 | eth1:172.16.1.8 | web02 |
②Web01服務器上配置nginx
[root@web01 ~]# cd /etc/nginx/conf.d/ [root@web01 conf.d]# cat node.conf server { listen 80; server_name node.pingface.com; location / { root /node; index index.html; } } [root@web01 conf.d]# mkdir /node [root@web01 conf.d]# echo "Web01..." > /node/index.html [root@web01 conf.d]# systemctl restart nginx
③Web02服務器上配置nginx
[root@web02 ~]# cd /etc/nginx/conf.d/ [root@web02 conf.d]# cat node.conf server { listen 80; server_name node.pingface.com; location / { root /node; index index.html; } } [root@web02 conf.d]# mkdir /node [root@web02 conf.d]# echo "Web02..." > /node/index.html [root@web02 conf.d]# systemctl restart nginx
④準備Nginx負載均衡調度使用的proxy_params
[root@Nginx ~]# vim /etc/nginx/proxy_params proxy_set_header Host $http_host; proxy_set_header X‐Real‐IP $remote_addr; proxy_set_header X‐Forwarded‐For $proxy_add_x_forwarded_for; proxy_connect_timeout 30; proxy_send_timeout 60; proxy_read_timeout 60; proxy_buffering on; proxy_buffer_size 32k; proxy_buffers 4 128k;
⑤配置Nginx負載均衡
[root@lb01 ~]# cd /etc/nginx/conf.d/ [root@lb01 conf.d]# cat node_proxy.conf upstream node { server 172.16.1.7:80; server 172.16.1.8:80; } server { listen 80; server_name node.pingface.com; location / { proxy_pass http://node; include proxy_params; } } [root@lb01 conf.d]# systemctl restart nginx
打開瀏覽器訪問:http://node.pingfacecom
⑥負載均衡常見典型故障
若是後臺服務鏈接超時,Nginx是自己是有機制的,若是出現一個節點down掉的時候,Nginx會更據你具體負載均衡的 設置,將請求轉移到其餘的節點上,可是,若是後臺服務鏈接沒有down掉,可是返回錯誤異常碼瞭如:50四、50二、500, 這個時候你須要加一個負載均衡的設置,以下:proxy_next_upstream http_500 | http_502 | http_503 | http_504 |http_404;意思是,當其中一臺返回錯誤碼404,500…等錯誤時,能夠分配到下一臺服務器程序繼續處理,提升平臺訪問成功率。
server { listen 80; server_name node.pingface.com; location / { proxy_pass http://node; proxy_next_upstream error timeout http_500 http_502 http_503 http_504; } }
調度算法 | 概述 |
---|---|
輪詢 | 按時間順序逐一分配到不一樣的後端服務器(默認),rr輪詢 |
weight | 加權輪詢,weight值越大,分配到的訪問概率越高 |
ip_hash | 每一個請求按訪問IP的hash結果分配,這樣來自同一IP的固定訪問一個後端服務器 |
url_hash | 按照訪問URL的hash結果來分配請求,是每一個URL定向到同一個後端服務器 |
least_conn | 最少連接數,那個機器連接數少就分 |
①Nginx負載均衡[rr]輪詢具體配置
upstream load_pass { server 10.0.0.7:80; server 10.0.0.8:80; }
②Nginx負載均衡[wrr]權重輪詢具體配置
upstream load_pass { server 10.0.0.7:80 weight=5; server 10.0.0.8:80; }
③Nginx負載均衡ip_hash
具體配置不能和weight一塊兒使用
# 若是客戶端都走相同代理, 會致使某一臺服務器鏈接過多 upstream load_pass { ip_hash; server 10.0.0.7:80; server 10.0.0.8:80; }
後端Web服務器在前端Nginx負載均衡調度中的狀態
狀態 | 概述 |
---|---|
down | 當前的server暫時不參與負載均衡 |
backup | 預留的備份服務器 |
max_fails | 容許請求失敗的次數 |
fail_timeout | 通過max_fails失敗後, 服務暫停時間 |
max_conns | 限制最大的接收鏈接數 |
①down狀態測試
該Server不參與負載均衡的調度
upstream load_pass { # 不參與任何調度, 通常用於停機維護 server 10.0.0.7:80 down; }
②測試backup以及down狀態
upstream load_pass { server 10.0.0.7:80 down; server 10.0.0.8:80 backup; server 10.0.0.9:80 max_fails=1 fail_timeout=10s; } location / { proxy_pass http://load_pass; include proxy_params; }
③測試max_fails失敗次數和fail_timeout多少時間內失敗多少次則標記down
upstream load_pass { server 10.0.0.7:80; server 10.0.0.8:80 max_fails=2 fail_timeout=10s; }
④測試max_conns最大TCP鏈接數
upstream load_pass { server 10.0.0.7:80; server 10.0.0.8:80 max_conns=1; }
在Nginx官方模塊提供的模塊中,沒有對負載均衡後端節點的健康檢查模塊,但可使用第三方模塊。 nginx_upstream_check_module
來檢測後端服務的健康狀態。
①安裝依賴包
[root@lb02 ~]# yum install ‐y gcc glibc gcc‐c++ pcre‐devel openssl‐devel patch
②下載nginx源碼包以及nginx_upstream_check模塊第三方模塊
[root@lb02 ~]# wget http://nginx.org/download/nginx‐1.14.2.tar.gz [root@lb02 ~]# wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/master.zip
③解壓nginx源碼包以及第三方模塊
[root@lb02 ~]# tar xf nginx‐1.14.2.tar.gz [root@lb02 ~]# unzip master.zip
④進入nginx目錄,打補丁(nginx的版本是1.14補丁就選擇1.14的,p1表明在nginx目錄,p0是不在nginx目錄)
[root@lb02 ~]# cd nginx‐1.14.2/ [root@lb02 nginx‐1.14.2]# patch ‐p1 <../nginx_upstream_check_modulemaster/check_1.14.0+.patch ./configure ‐‐prefix=/etc/nginx ‐‐sbin‐path=/usr/sbin/nginx ‐‐modulespath=/usr/lib64/nginx/modules ‐‐conf‐path=/etc/nginx/nginx.conf ‐‐error‐logpath=/var/log/nginx/error.log ‐‐http‐log‐path=/var/log/nginx/access.log ‐‐pidpath=/var/run/nginx.pid ‐‐lock‐path=/var/run/nginx.lock ‐‐http‐client‐body‐temppath=/var/cache/nginx/client_temp ‐‐http‐proxy‐temp‐path=/var/cache/nginx/proxy_temp ‐‐httpfastcgi‐temp‐path=/var/cache/nginx/fastcgi_temp ‐‐http‐uwsgi‐temppath=/var/cache/nginx/uwsgi_temp ‐‐http‐scgi‐temp‐path=/var/cache/nginx/scgi_temp ‐user=nginx ‐‐group=nginx ‐‐with‐compat ‐‐with‐file‐aio ‐‐with‐threads ‐‐withhttp_addition_module ‐‐with‐http_auth_request_module ‐‐with‐http_dav_module ‐‐withhttp_flv_module ‐‐with‐http_gunzip_module ‐‐with‐http_gzip_static_module ‐‐withhttp_mp4_module ‐‐with‐http_random_index_module ‐‐with‐http_realip_module ‐‐withhttp_secure_link_module ‐‐with‐http_slice_module ‐‐with‐http_ssl_module ‐‐withhttp_stub_status_module ‐‐with‐http_sub_module ‐‐with‐http_v2_module ‐‐with‐mail ‐‐withmail_ssl_module ‐‐with‐stream ‐‐with‐stream_realip_module ‐‐with‐stream_ssl_module ‐‐withstream_ssl_preread_module ‐‐add‐module=/root/nginx_upstream_check_module‐master ‐‐with‐ccopt='‐O2 ‐g ‐pipe ‐Wall ‐Wp,‐D_FORTIFY_SOURCE=2 ‐fexceptions ‐fstack‐protector‐strong ‐param=ssp‐buffer‐size=4 ‐grecord‐gcc‐switches ‐m64 ‐mtune=generic ‐fPIC' ‐‐with‐ld‐opt='Wl,‐z,relro ‐Wl,‐z,now ‐pie' [root@lb02 nginx‐1.14.2]# make && make install
⑤在已有的負載均衡上增長健康檢查的功能
[root@lb01 conf.d]# cat proxy_web.conf upstream web { server 172.16.1.7:80 max_fails=2 fail_timeout=10s; server 172.16.1.8:80 max_fails=2 fail_timeout=10s; check interval=3000 rise=2 fall=3 timeout=1000 type=tcp; #interval 檢測間隔時間,單位爲毫秒 #rise 表示請求2次正常,標記此後端的狀態爲up #fall 表示請求3次失敗,標記此後端的狀態爲down #type 類型爲tcp #timeout 超時時間,單位爲毫秒 } server { listen 80; server_name web.pingface.com; location / { proxy_pass http://web; include proxy_params; } location /upstream_check { check_status; } }
在使用負載均衡的時候會遇到會話保持的問題,可經過以下方式進行解決。 1.使用nginx的ip_hash,根據客戶端的IP,將請求分配到對應的IP上 2.基於服務端的session會話共享(NFS,MySQL,memcache,redis,file) 在解決負載均衡繪畫問題,咱們須要瞭解session和cookie的區別。 瀏覽器端存的是cookie每次瀏覽器發請求到服務端時,報文頭是會自動添加cookie信息的。 服務端會查詢用戶的cookie做爲key去存儲裏找對應的value(session)同一域名下的網站的cookie都是同樣的,因此不管幾臺服務器,不管請求分配到哪一臺服務器上同一用戶的cookie是不變的。也就是說cookie對應的session也是惟一的。因此這裏只要保證多臺業務服務器訪問同一個共享存儲服務器(NFS,MySQL,memcache,redis,file)就好了
①配置Nginx
[root@web01 conf.d]# cat php.conf server { listen 80; server_name php.pingface.com; root /code/phpMyAdmin‐4.8.4‐all‐languages; location / { index index.php index.html; } location ~ \.php$ { fastcgi_pass 127.0.0.1:9000; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; include fastcgi_params; } } [root@web01 conf.d]# systemctl restart nginx
②安裝phpmyadmin (web01和web02上都裝)
PHP版本要在7.0以上
[root@web01 conf.d]# cd /code [root@web01 code]# wget https://files.phpmyadmin.net/phpMyAdmin/4.8.4/phpMyAdmin‐4.8.4‐alllanguages.zip [root@web01 code]# unzip phpMyAdmin‐4.8.4‐all‐languages.zip
③配置phpmyadmin鏈接遠程的數據庫
[root@web01 code]# cd phpMyAdmin‐4.8.4‐all‐languages/ [root@web01 phpMyAdmin‐4.8.4‐all‐languages]# cp config.sample.inc.php config.inc.php [root@web01 phpMyAdmin‐4.8.4‐all‐languages]# vim config.inc.php /* Server parameters */ $cfg['Servers'][$i]['host'] = '172.16.1.51';
④配置受權
[root@web01 conf.d]# chown ‐R www.www /var/lib/php
使用瀏覽器訪問頁面,獲取cookie信息
[root@web01 phpMyAdmin‐4.8.4‐all‐languages]# ll /var/lib/php/session/ 總用量 4 ‐rw‐‐‐‐‐‐‐. 1 www www 2424 8月 21 18:41 sess_80a339880e754b1919d3004754f40f15
⑤將web01上配置好的phpmyadmin以及nginx的配置文件推送到web02主機上
[root@web01 code]# scp ‐rp phpMyAdmin‐4.8.4‐all‐languages root@172.16.1.8:/code/ [root@web01 code]# scp /etc/nginx/conf.d/php.conf root@172.16.1.8:/etc/nginx/conf.d/
⑥在web02上重載Nginx服務
[root@web02 code]# systemctl restart nginx
⑦受權
[root@web02 code]# chown ‐R www.www /var/lib/php/
⑧接入負載均衡
[root@lb01 conf.d]# vim proxy_php.com.conf upstream php { server 172.16.1.7:80; server 172.16.1.8:80; } server { listen 80; server_name php.pingface.com; location / { proxy_pass http://php; include proxy_params; } } [root@lb01 conf.d]# nginx ‐t nginx: the configuration file /etc/nginx/nginx.conf syntax is ok nginx: configuration file /etc/nginx/nginx.conf test is successful [root@lb01 conf.d]# systemctl restart nginx
使用負載均衡的輪詢功能以後,會發現,若是將session保存在本地文件的話,永遠都登陸不上去php.pingface.com
①安裝redis內存數據庫
[root@db01 ~]# yum install redis ‐y
②配置redis監聽在172.16.1.0網段上
[root@db01 ~]# sed ‐i '/^bind/c bind 127.0.0.1 172.16.1.51' /etc/redis.conf
③啓動redis
[root@db01 ~]# systemctl start redis [root@db01 ~]# systemctl enable redis
④php配置session鏈接redis
# 1.修改/etc/php.ini文件 [root@web ~]# vim /etc/php.ini session.save_handler = redis session.save_path = "tcp://172.16.1.51:6379" ;session.save_path = "tcp://172.16.1.51:6379?auth=123" #若是redis存在密碼,則使用該方式 session.auto_start = 1 # 2.註釋php‐fpm.d/www.conf裏面的兩條內容,不然session內容會一直寫入/var/lib/php/session目錄中 ;php_value[session.save_handler] = files ;php_value[session.save_path] = /var/lib/php/session
⑤重啓php-fpm
[root@web01 code]# systemctl restart php‐fpm
⑥將web01上配置好的文件推送到web02
[root@web01 code]# scp /etc/php.ini root@172.16.1.8:/etc/php.ini [root@web01 code]# scp /etc/php‐fpm.d/www.conf root@172.16.1.8:/etc/php‐fpm.d/www.conf
⑦web02上重啓php-fpm
[root@web02 code]# systemctl restart php‐fpm
⑧redis查看數據
[root@db01 ~]# redis‐cli 127.0.0.1:6379> keys * 1) "PHPREDIS_SESSION:f96f184460e8ca9dfdc65f3e70cca79c"