Nginx是一款輕量級的Web 服務器/反向代理服務器及電子郵件(IMAP/POP3)代理服務器,在BSD-like 協議下發行。其特色是佔有內存少,併發能力強,事實上nginx的併發能力在同類型的網頁服務器中表現較好,中國大陸使用nginx網站用戶有:百度、京東、新浪、網易、騰訊、淘寶等
負載均衡是高可用網絡基礎架構的關鍵組件,一般用於將工做負載分佈到多個服務器來提升網站、應用、數據庫或其餘服務的性能和可靠性
上圖來解釋一下吧
html
好比我本身建立了一個網站,分享一些學習心得之類的東西,一開始的時候訪問數量少,那麼一臺服務器就能夠支撐,可是後來有一天我忽然成爲大明星,那麼這時候有不少人想要訪問個人網站,漸漸的一臺服務器不足以處理大量的請求,這時候就須要增長服務器來減緩壓力,假如我增長了兩臺服務器,我不能讓訪問的人須要記住3個域名吧,就好比百度,他也有不少臺服務器,可是咱們只須要記住百度就能夠了,那麼這是怎末作到的呢?node
這個時候呢我就能夠在搭建一臺新的Nginx服務器,讓全部的請求都先來訪問Nginx服務器,而後在由Nginx派發處理請求到其餘服務器上Nginx是不處理請求的,他只是根據不一樣的策略來派發到不一樣的服務器上
,這樣是否是就解決了問題,用戶只須要記住一個域名,並且請求量增大的時候也不會致使服務器宕機linux
從上面咱們知道了Nginx是能夠根據不一樣的策略來派發處理請求的,那麼都有什麼策略呢?nginx
輪詢(默認)web
每一個請求按時間順序逐一分配到不一樣的後端服務器,若是後端服務器宕機,能自動剔除
指定權重算法
指定輪詢概率,weight和訪問比率成正比,用於後端服務器性能不均的狀況
ip_hash數據庫
指定負載均衡器按照基於客戶端IP的分配方式,這個方法確保了相同的客戶端的請求一直髮送到相同的服務器,以保證session會話。這樣每一個訪客都固定訪問一個後端服務器,能夠解決session不能跨服務器的問題
least_conn(最小鏈接數)apache
把請求轉發給鏈接數較少的後端服務器。輪詢算法是把請求平均的轉發給各個後端,使它們的負載大體相同;可是,有些請求佔用的時間很長,會致使其所在的後端負載較高。這種狀況下,least_conn這種方式就能夠達到更好的負載均衡效果
第三方策略 第三方的負載均衡策略的實現須要安裝第三方插件後端
fair設計模式
按照服務器端的響應時間來分配請求,響應時間短的優先分配
url_hash
訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,要配合緩存命中來使用。同一個資源屢次請求,可能會到達不一樣的服務器上,致使沒必要要的屢次下載,緩存命中率不高,以及一些資源時間的浪費。而使用url_hash,可使得同一個url(也就是同一個資源請求)會到達同一臺服務器,一旦緩存住了資源,再此收到請求,就能夠從緩存中讀取
- 輪詢 這個的做用就是服務器的一個集合,全部會被Nginx派發任務的服務器在這裏配置 upstream是固定值 nodes 這個是隨意的名字可是要跟下面的server.ocation.proxy_pass 中http後的名字一致 upstream nodes { server 192.168.1.11; server 192.168.1.12; } server { listen 80; //監聽的端口號 server_name 127.0.0.1; //Nginx 服務器地址 location / { // / 表示全部的請求 proxy_pass http://nodes; //被轉發的服務器地址 } - 權重 upstream nodes { server 192.168.1.11 weight=3; //weight 默認值是1數值越大,表明被被訪問的次數也會越多 server 192.168.1.12 weight=10; } server { listen 80; //監聽的端口號 server_name 127.0.0.1; //Nginx 服務器地址 location / { // / 表示全部的請求 proxy_pass http://nodes; //被轉發的服務器地址 } - least_conn(最小鏈接數) upstream nodes { least_conn; //請鏈接數較少的後端服務器 server 192.168.1.11; //weight 默認值是1數值越大,表明被被訪問的次數也會越多 server 192.168.1.12; } server { listen 80; //監聽的端口號 server_name 127.0.0.1; //Nginx 服務器地址 location / { // / 表示全部的請求 proxy_pass http://nodes; //被轉發的服務器地址 } - ip_hash upstream nodes { ip_hash; //請求按訪問ip的hash結果分配 server 192.168.1.11; //weight 默認值是1數值越大,表明被被訪問的次數也會越多 server 192.168.1.12; } server { listen 80; //監聽的端口號 server_name 127.0.0.1; //Nginx 服務器地址 location / { // / 表示全部的請求 proxy_pass http://nodes; //被轉發的服務器地址 } - fair upstream nodes { server 192.168.1.11; //weight 默認值是1數值越大,表明被被訪問的次數也會越多 server 192.168.1.12; fair;//後端服務器的響應時間來分配請求,響應時間短的優先分配 } server { listen 80; //監聽的端口號 server_name 127.0.0.1; //Nginx 服務器地址 location / { // / 表示全部的請求 proxy_pass http://nodes; //被轉發的服務器地址 } - url_hash upstream nodes { server 192.168.1.11; //weight 默認值是1數值越大,表明被被訪問的次數也會越多 server 192.168.1.12; hash $request_uri; hash_method crc32;//按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器 } server { listen 80; //監聽的端口號 server_name 127.0.0.1; //Nginx 服務器地址 location / { // / 表示全部的請求 proxy_pass http://nodes; //被轉發的服務器地址 }
以上文件都是在nginx.conf裏面配置
代理:在Java設計模式中,代理模式是這樣定義的:給某個對象提供一個代理對象,並由代理對象控制原對象的引用
在說反向代理前先說一下什麼是正向代理?
舉個例子說明一下吧 ,有一天我要去理髮,而後我到了理髮店以後說,我要找王Tony給我理髮 其實這就是正向代理,明確的知道本身的目標是什麼
仍是舉個例子,我仍是去理髮店理髮,不過我是第一次來,我說給我理個最便宜的,這時候我並不知道誰要來給我理髮,可是隻要能給理髮就能夠了 這就是反向代理,我不關心處理請求的是誰,你只要把我要的結果給我就行了
反向代理和正向代理的區別就是,正向代理客戶端,反向代理服務器
server { listen 80; server_name localhost; //Nginx 地址 location / { proxy_pass http://123.123.123.123.com //要代理的服務器地址 index index.html index.htm index.jsp; } }
配置完這個之後,重啓Nginx 在瀏覽器中輸入localhost:80(80能夠不用輸入),就能夠直接訪問到服務器了
這就是反向代理
user nginx nginx ; Nginx用戶及組:用戶 組。window下不指定 worker_processes 8; 工做進程:數目。根據硬件調整,一般等於CPU數量或者2倍於CPU。 error_log logs/error.log; error_log logs/error.log notice; error_log logs/error.log info; 錯誤日誌:存放路徑。 pid logs/nginx.pid; pid(進程標識符):存放路徑。 worker_rlimit_nofile 204800; 指定進程能夠打開的最大描述符:數目。 這個指令是指當一個nginx進程打開的最多文件描述符數目,理論值應該是最多打開文件數(ulimit -n)與nginx進程數相除,可是nginx分配請求並非那麼均勻,因此最好與ulimit -n 的值保持一致。 如今在linux 2.6內核下開啓文件打開數爲65535,worker_rlimit_nofile就相應應該填寫65535。 這是由於nginx調度時分配請求到進程並非那麼的均衡,因此假如填寫10240,總併發量達到3-4萬時就有進程可能超過10240了,這時會返回502錯誤。 events { use epoll; 使用epoll的I/O 模型。linux建議epoll,FreeBSD建議採用kqueue,window下不指定。 補充說明: 與apache相類,nginx針對不一樣的操做系統,有不一樣的事件模型 A)標準事件模型 Select、poll屬於標準事件模型,若是當前系統不存在更有效的方法,nginx會選擇select或poll B)高效事件模型 Kqueue:使用於FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用雙處理器的MacOS X系統使用kqueue可能會形成內核崩潰。 Epoll:使用於Linux內核2.6版本及之後的系統。 /dev/poll:使用於Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。 Eventport:使用於Solaris 10。 爲了防止出現內核崩潰的問題, 有必要安裝安全補丁。 worker_connections 204800; 沒個工做進程的最大鏈接數量。根據硬件調整,和前面工做進程配合起來用,儘可能大,可是別把cpu跑到100%就行。每一個進程容許的最多鏈接數,理論上每臺nginx服務器的最大鏈接數爲。worker_processes*worker_connections keepalive_timeout 60; keepalive超時時間。 client_header_buffer_size 4k; 客戶端請求頭部的緩衝區大小。這個能夠根據你的系統分頁大小來設置,通常一個請求頭的大小不會超過1k,不過因爲通常系統分頁都要大於1k,因此這裏設置爲分頁大小。 分頁大小能夠用命令getconf PAGESIZE 取得。 [root@web001 ~]# getconf PAGESIZE 4096 但也有client_header_buffer_size超過4k的狀況,可是client_header_buffer_size該值必須設置爲「系統分頁大小」的整倍數。 open_file_cache max=65535 inactive=60s; 這個將爲打開文件指定緩存,默認是沒有啓用的,max指定緩存數量,建議和打開文件數一致,inactive是指通過多長時間文件沒被請求後刪除緩存。 open_file_cache_valid 80s; 這個是指多長時間檢查一次緩存的有效信息。 open_file_cache_min_uses 1; open_file_cache指令中的inactive參數時間內文件的最少使用次數,若是超過這個數字,文件描述符一直是在緩存中打開的,如上例,若是有一個文件在inactive時間內一次沒被使用,它將被移除。 } ##設定http服務器,利用它的反向代理功能提供負載均衡支持 http { include mime.types; 設定mime類型,類型由mime.type文件定義 default_type application/octet-stream; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location'; 日誌格式設置。 $remote_addr與$http_x_forwarded_for用以記錄客戶端的ip地址; $remote_user:用來記錄客戶端用戶名稱; $time_local: 用來記錄訪問時間與時區; $request: 用來記錄請求的url與http協議; $status: 用來記錄請求狀態;成功是200, $body_bytes_sent :記錄發送給客戶端文件主體內容大小; $http_referer:用來記錄從那個頁面連接訪問過來的; $http_user_agent:記錄客戶瀏覽器的相關信息; 一般web服務器放在反向代理的後面,這樣就不能獲取到客戶的IP地址了,經過$remote_add拿到的IP地址是反向代理服務器的iP地址。反向代理服務器在轉發請求的http頭信息中,能夠增長x_forwarded_for信息,用以記錄原有客戶端的IP地址和原來客戶端的請求的服務器地址。 access_log logs/host.access.log main; access_log logs/host.access.404.log log404; 用了log_format指令設置了日誌格式以後,須要用access_log指令指定日誌文件的存放路徑; server_names_hash_bucket_size 128; #保存服務器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。參數hash bucket size老是等於hash表的大小,而且是一路處理器緩存大小的倍數。在減小了在內存中的存取次數後,使在處理器中加速查找hash表鍵值成爲可能。若是hash bucket size等於一路處理器緩存的大小,那麼在查找鍵的時候,最壞的狀況下在內存中查找的次數爲2。第一次是肯定存儲單元的地址,第二次是在存儲單元中查找鍵 值。所以,若是Nginx給出須要增大hash max size 或 hash bucket size的提示,那麼首要的是增大前一個參數的大小. client_header_buffer_size 4k; 客戶端請求頭部的緩衝區大小。這個能夠根據你的系統分頁大小來設置,通常一個請求的頭部大小不會超過1k,不過因爲通常系統分頁都要大於1k,因此這裏設置爲分頁大小。分頁大小能夠用命令getconf PAGESIZE取得。 large_client_header_buffers 8 128k; 客戶請求頭緩衝大小。nginx默認會用client_header_buffer_size這個buffer來讀取header值,若是 header過大,它會使用large_client_header_buffers來讀取。 open_file_cache max=102400 inactive=20s; 這個指令指定緩存是否啓用。 例: open_file_cache max=1000 inactive=20s; open_file_cache_valid 30s; open_file_cache_min_uses 2; open_file_cache_errors on; open_file_cache_errors 語法:open_file_cache_errors on | off 默認值:open_file_cache_errors off 使用字段:http, server, location 這個指令指定是否在搜索一個文件是記錄cache錯誤. open_file_cache_min_uses 語法:open_file_cache_min_uses number 默認值:open_file_cache_min_uses 1 使用字段:http, server, location 這個指令指定了在open_file_cache指令無效的參數中必定的時間範圍內可使用的最小文件數,若是使用更大的值,文件描述符在cache中老是打開狀態. open_file_cache_valid 語法:open_file_cache_valid time 默認值:open_file_cache_valid 60 使用字段:http, server, location 這個指令指定了什麼時候須要檢查open_file_cache中緩存項目的有效信息. client_max_body_size 300m; 設定經過nginx上傳文件的大小 sendfile on; sendfile指令指定 nginx 是否調用sendfile 函數(zero copy 方式)來輸出文件,對於普通應用,必須設爲on。若是用來進行下載等應用磁盤IO重負載應用,可設置爲off,以平衡磁盤與網絡IO處理速度,下降系統uptime。 tcp_nopush on; 此選項容許或禁止使用socke的TCP_CORK的選項,此選項僅在使用sendfile的時候使用 proxy_connect_timeout 90; 後端服務器鏈接的超時時間_發起握手等候響應超時時間 proxy_read_timeout 180; 鏈接成功後_等候後端服務器響應時間_其實已經進入後端的排隊之中等候處理(也能夠說是後端服務器處理請求的時間) proxy_send_timeout 180; 後端服務器數據回傳時間_就是在規定時間以內後端服務器必須傳完全部的數據 proxy_buffer_size 256k; 設置從被代理服務器讀取的第一部分應答的緩衝區大小,一般狀況下這部分應答中包含一個小的應答頭,默認狀況下這個值的大小爲指令proxy_buffers中指定的一個緩衝區的大小,不過能夠將其設置爲更小 proxy_buffers 4 256k; 設置用於讀取應答(來自被代理服務器)的緩衝區數目和大小,默認狀況也爲分頁大小,根據操做系統的不一樣多是4k或者8k proxy_busy_buffers_size 256k; proxy_temp_file_write_size 256k; 設置在寫入proxy_temp_path時數據的大小,預防一個工做進程在傳遞文件時阻塞太長 proxy_temp_path /data0/proxy_temp_dir; proxy_temp_path和proxy_cache_path指定的路徑必須在同一分區 proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g; #設置內存緩存空間大小爲200MB,1天沒有被訪問的內容自動清除,硬盤緩存空間大小爲30GB。 keepalive_timeout 120; keepalive超時時間。 tcp_nodelay on; client_body_buffer_size 512k; 若是把它設置爲比較大的數值,例如256k,那麼,不管使用firefox仍是IE瀏覽器,來提交任意小於256k的圖片,都很正常。若是註釋該指令,使用默認的client_body_buffer_size設置,也就是操做系統頁面大小的兩倍,8k或者16k,問題就出現了。 不管使用firefox4.0仍是IE8.0,提交一個比較大,200k左右的圖片,都返回500 Internal Server Error錯誤 proxy_intercept_errors on; 表示使nginx阻止HTTP應答代碼爲400或者更高的應答。 upstream bakend { server 127.0.0.1:8027; server 127.0.0.1:8028; server 127.0.0.1:8029; hash $request_uri; } nginx的upstream目前支持4種方式的分配 一、輪詢(默認) 每一個請求按時間順序逐一分配到不一樣的後端服務器,若是後端服務器down掉,能自動剔除。 二、weight 指定輪詢概率,weight和訪問比率成正比,用於後端服務器性能不均的狀況。 例如: upstream bakend { server 192.168.0.14 weight=10; server 192.168.0.15 weight=10; } 二、ip_hash 每一個請求按訪問ip的hash結果分配,這樣每一個訪客固定訪問一個後端服務器,能夠解決session的問題。 例如: upstream bakend { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; } 三、fair(第三方) 按後端服務器的響應時間來分配請求,響應時間短的優先分配。 upstream backend { server server1; server server2; fair; } 四、url_hash(第三方) 按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,後端服務器爲緩存時比較有效。 例:在upstream中加入hash語句,server語句中不能寫入weight等其餘的參數,hash_method是使用的hash算法 upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; } tips: upstream bakend{#定義負載均衡設備的Ip及設備狀態}{ ip_hash; server 127.0.0.1:9090 down; server 127.0.0.1:8080 weight=2; server 127.0.0.1:6060; server 127.0.0.1:7070 backup; } 在須要使用負載均衡的server中增長 proxy_pass http://bakend/; 每一個設備的狀態設置爲: 1.down表示單前的server暫時不參與負載 2.weight爲weight越大,負載的權重就越大。 3.max_fails:容許請求失敗的次數默認爲1.當超過最大次數時,返回proxy_next_upstream模塊定義的錯誤 4.fail_timeout:max_fails次失敗後,暫停的時間。 5.backup: 其它全部的非backup機器down或者忙的時候,請求backup機器。因此這臺機器壓力會最輕。 nginx支持同時設置多組的負載均衡,用來給不用的server來使用。 client_body_in_file_only設置爲On 能夠講client post過來的數據記錄到文件中用來作debug client_body_temp_path設置記錄文件的目錄 能夠設置最多3層目錄 location對URL進行匹配.能夠進行重定向或者進行新的代理 負載均衡 ##配置虛擬機 server { listen 80; 配置監聽端口 server_name image.***.com; 配置訪問域名 location ~* \.(mp3|exe)$ { 對以「mp3或exe」結尾的地址進行負載均衡 proxy_pass http://img_relay$request_uri; 設置被代理服務器的端口或套接字,以及URL proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 以上三行,目的是將代理服務器收到的用戶的信息傳到真實服務器上 } location /face { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/face.log log404; rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } location /image { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/image.log log404; rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } } ##其餘舉例 server { listen 80; server_name *.***.com *.***.cn; location ~* \.(mp3|exe)$ { proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } location / { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #error_page 404 http://i1.***img.com/help/noimg.gif; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/baijiaqi.log log404; rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect; } } server { listen 80; server_name *.***img.com; location ~* \.(mp3|exe)$ { proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } location / { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #error_page 404 http://i1.***img.com/help/noimg.gif; error_page 404 = @fetch; } #access_log off; location @fetch { access_log /data/logs/baijiaqi.log log404; rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect; } } server { listen 8080; server_name ngx-ha.***img.com; location / { stub_status on; access_log off; } } server { listen 80; server_name imgsrc1.***.net; root html; } server { listen 80; server_name ***.com w.***.com; # access_log /usr/local/nginx/logs/access_log main; location / { rewrite ^(.*)$ http://www.***.com/ ; } } server { listen 80; server_name *******.com w.*******.com; # access_log /usr/local/nginx/logs/access_log main; location / { rewrite ^(.*)$ http://www.*******.com/; } } server { listen 80; server_name ******.com; # access_log /usr/local/nginx/logs/access_log main; location / { rewrite ^(.*)$ http://www.******.com/; } } location /NginxStatus { stub_status on; access_log on; auth_basic "NginxStatus"; auth_basic_user_file conf/htpasswd; } #設定查看Nginx狀態的地址 location ~ /\.ht { deny all; } #禁止訪問.htxxx文件 } 註釋:變量 Ngx_http_core_module模塊支持內置變量,他們的名字和apache的內置變量是一致的。 首先是說明客戶請求title中的行,例如$http_user_agent,$http_cookie等等。 此外還有其它的一些變量 $args此變量與請求行中的參數相等 $content_length等於請求行的「Content_Length」的值。 $content_type等同與請求頭部的」Content_Type」的值 $document_root等同於當前請求的root指令指定的值 $document_uri與$uri同樣 $host與請求頭部中「Host」行指定的值或是request到達的server的名字(沒有Host行)同樣 $limit_rate容許限制的鏈接速率 $request_method等同於request的method,一般是「GET」或「POST」 $remote_addr客戶端ip $remote_port客戶端port $remote_user等同於用戶名,由ngx_http_auth_basic_module認證 $request_filename當前請求的文件的路徑名,由root或alias和URI request組合而成 $request_body_file $request_uri含有參數的完整的初始URI $query_string與$args同樣 $sheeme http模式(http,https)盡在要求是評估例如 Rewrite ^(.+)$ $sheme://example.com$; Redirect; $server_protocol等同於request的協議,使用「HTTP/或「HTTP/ $server_addr request到達的server的ip,通常得到此變量的值的目的是進行系統調用。爲了不繫統調用,有必要在listen指令中指明ip,並使用bind參數。 $server_name請求到達的服務器名 $server_port請求到達的服務器的端口號 $uri等同於當前request中的URI,可不一樣於初始值,例如內部重定向時或使用index
今天就說到這裏吧