Nginx 是一個高性能的 HTTP 和反向代理服務器,特色是佔用內存少,併發能力強,事實上 Nginx 的併發能力確實在同類型的網頁服務器中表現較好。
Nginx 專爲性能優化而開發,性能是其最重要的要求,十分注重效率,有報告 Nginx 能支持高達 50000 個併發鏈接數。html
Nginx 的知識網結構圖以下:nginx
正向代理:局域網中的電腦用戶想要直接訪問網絡是不可行的,只能經過代理服務器來訪問,這種代理服務就被稱爲正向代理。web
反向代理:客戶端沒法感知代理,由於客戶端訪問網絡不須要配置,只要把請求發送到反向代理服務器,由反向代理服務器去選擇目標服務器獲取數據,而後再返回到客戶端。正則表達式
此時反向代理服務器和目標服務器對外就是一個服務器,暴露的是代理服務器地址,隱藏了真實服務器 IP 地址。數據庫
客戶端發送多個請求到服務器,服務器處理請求,有一些可能要與數據庫進行交互,服務器處理完畢以後,再將結果返回給客戶端。後端
普通請求和響應過程以下圖:瀏覽器
可是隨着信息數量增加,訪問量和數據量飛速增加,普通架構沒法知足如今的需求。tomcat
咱們首先想到的是升級服務器配置,能夠因爲摩爾定律的日益失效,單純從硬件提高性能已經逐漸不可取了,怎麼解決這種需求呢?性能優化
咱們能夠增長服務器的數量,構建集羣,將請求分發到各個服務器上,將原來請求集中到單個服務器的狀況改成請求分發到多個服務器,也就是咱們說的負載均衡。服務器
圖解負載均衡:
假設有 15 個請求發送到代理服務器,那麼由代理服務器根據服務器數量,平均分配,每一個服務器處理 5 個請求,這個過程就叫作負載均衡。
爲了加快網站的解析速度,能夠把動態頁面和靜態頁面交給不一樣的服務器來解析,加快解析的速度,下降由單個服務器的壓力。
動靜分離以前的狀態:
動靜分離以後:
參考連接:
#查看版本: ./nginx -v #啓動: ./nginx #關閉(有兩種方式,推薦使用 ./nginx -s quit): ./nginx -s stop ./nginx -s quit #從新加載 Nginx 配置: ./nginx -s reload
配置文件分三部分組成:
①全局塊
從配置文件開始到 events 塊之間,主要是設置一些影響 Nginx 服務器總體運行的配置指令。
併發處理服務的配置,值越大,能夠支持的併發處理量越多,可是會受到硬件、軟件等設備的制約。
②events 塊
影響 Nginx 服務器與用戶的網絡鏈接,經常使用的設置包括是否開啓對多 workprocess 下的網絡鏈接進行序列化,是否容許同時接收多個網絡鏈接等等。
支持的最大鏈接數:
③HTTP 塊
諸如反向代理和負載均衡都在此配置。
location[ = | ~ | ~* | ^~] url{ }
location 指令說明,該語法用來匹配 url,語法如上:
①配置反向代理
目的:在瀏覽器地址欄輸入地址 www.123.com 跳轉 Linux 系統 Tomcat 主頁面。
②具體實現
先配置 Tomcat,由於比較簡單,此處再也不贅敘,並在 Windows 訪問:
具體流程以下圖:
修改以前:
配置以下:
再次訪問:
③反向代理 2
目標:
準備:配置兩個 Tomcat,端口分別爲 8080 和 8081,均可以訪問,端口修改配置文件便可。
新建文件內容分別添加 8080!!!和 8081!!!
反向代理小結
第一個例子:瀏覽器訪問 www.123.com,由 host 文件解析出服務器 ip 地址
192.168.25.132 www.123.com。
而後默認訪問 80 端口,而經過 Nginx 監聽 80 端口代理到本地的 8080 端口上,從而實現了訪問 www.123.com,最終轉發到 tomcat 8080 上去。
第二個例子:
訪問 http://192.168.25.132:9001/edu/ 直接跳轉到 192.168.25.132:8080
訪問 http://192.168.25.132:9001/vod/ 直接跳轉到 192.168.25.132:8081
實際上就是經過 Nginx 監聽 9001 端口,而後經過正則表達式選擇轉發到 8080 仍是 8081 的 Tomcat 上去。
①修改 nginx.conf,以下圖:
②重啓 Nginx:
./nginx -s reload
③在 8081 的 Tomcat 的 webapps 文件夾下新建 edu 文件夾和 a.html 文件,填寫內容爲 8081!!!!
④在地址欄回車,就會分發到不一樣的 Tomcat 服務器上:
負載均衡方式以下:
動靜分離實戰
什麼是動靜分離?把動態請求和靜態請求分開,不是講動態頁面和靜態頁面物理分離,能夠理解爲 Nginx 處理靜態頁面,Tomcat 處理動態頁面。
動靜分離大體分爲兩種:
動靜分離圖析:
實戰準備,準備靜態文件:
配置 Nginx,以下圖:
若是 Nginx 出現問題:
解決辦法:
前期準備:
#安裝 Keepalived: [root@192 usr]# yum install keepalived -y [root@192 usr]# rpm -q -a keepalived keepalived-1.3.5-16.el7.x86_64 #修改配置文件: [root@192 keepalived]# cd /etc/keepalived [root@192 keepalived]# vi keepalived.conf
分別將以下配置文件複製粘貼,覆蓋掉 keepalived.conf,虛擬 ip 爲 192.168.25.50。
對應主機 ip 須要修改的是:
global_defs { notification_email { acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } notification_email_from Alexandre.Cassen@firewall.loc smtp_server 192.168.25.147 smtp_connect_timeout 30 router_id LVS_DEVEL # 訪問的主機地址 } vrrp_script chk_nginx { script "/usr/local/src/nginx_check.sh" # 檢測文件的地址 interval 2 # 檢測腳本執行的間隔 weight 2 # 權重 } vrrp_instance VI_1 { state BACKUP # 主機MASTER、備機BACKUP interface ens33 # 網卡 virtual_router_id 51 # 同一組需一致 priority 90 # 訪問優先級,主機值較大,備機較小 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.25.50 # 虛擬ip } }
啓動命令以下:
[root@192 sbin]# systemctl start keepalived.service
訪問虛擬 ip 成功:
關閉主機 147 的 Nginx 和 Keepalived,發現仍然能夠訪問。
原理解析
以下圖,就是啓動了一個 master,一個 worker,master 是管理員,worker是具體工做的進程。
worker 如何工做?以下圖:
worker 數應該和 CPU 數相等;一個 master 多個 worker 可使用熱部署,同時 worker 是獨立的,一個掛了不會影響其餘的。
做者:漸暖°
出處:blog.csdn.net/yujing1314/article/details/107000737_