簡單應用nignx + tomcat 實現服務器的負載均衡php
當服務器有高併發訪問亦或是須要更新項目重啓服務器的時候,爲了防止服務器沒法訪問,須要配置服務器集羣,當有服務器宕機的時候,nginx會將請求分發到能夠訪問,壓力較小的服務器上。html
下面是我本地作的一個簡單的測試: 須要: tomcat*2 + nginxnginx
分別配置2個tomcat的端口,我配置的是8080 和 18080; 而且配置tomcat的首頁(index.jsp) 這裏簡單的配置顯示1和2 啓動2個tomcat算法
當訪問localhost:8080 和 localhost:18080 的時候 能夠訪問成功 後端
而後須要配置nginx 修改nginx/cong/nginx.conf緩存
#user nobody; worker_processes 1; #error_log logs/error.log; #error_log logs/error.log notice; #error_log logs/error.log info; #pid logs/nginx.pid; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; #log_format main '$remote_addr - $remote_user [$time_local] "$request" ' # '$status $body_bytes_sent "$http_referer" ' # '"$http_user_agent" "$http_x_forwarded_for"'; #access_log logs/access.log main; sendfile on; #tcp_nopush on; #keepalive_timeout 0; keepalive_timeout 65; #gzip on; upstream www.lbsky.com { server 127.0.0.1:8080 weight=3; #weight 配置權重 server 127.0.0.1:18080 weight=1; } server { listen 80; server_name localhost; #charset koi8-r; #access_log logs/host.access.log main; #location / { # root html; # index index.html index.htm; #} location / { # 將localhost的訪問 指向 www.lbsky.com proxy_pass http://www.lbsky.com; proxy_redirect default; } #error_page 404 /404.html; # redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } # proxy the PHP scripts to Apache listening on 127.0.0.1:80 # #location ~ \.php$ { # proxy_pass http://127.0.0.1; #} # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000 # #location ~ \.php$ { # root html; # fastcgi_pass 127.0.0.1:9000; # fastcgi_index index.php; # fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name; # include fastcgi_params; #} # deny access to .htaccess files, if Apache's document root # concurs with nginx's one # #location ~ /\.ht { # deny all; #} } # another virtual host using mix of IP-, name-, and port-based configuration # #server { # listen 8000; # listen somename:8080; # server_name somename alias another.alias; # location / { # root html; # index index.html index.htm; # } #} # HTTPS server # #server { # listen 443 ssl; # server_name localhost; # ssl_certificate cert.pem; # ssl_certificate_key cert.key; # ssl_session_cache shared:SSL:1m; # ssl_session_timeout 5m; # ssl_ciphers HIGH:!aNULL:!MD5; # ssl_prefer_server_ciphers on; # location / { # root html; # index index.html index.htm; # } #} }
而後訪問localhost,發現 分別展示1,2 而且每獲得3次1 而後獲得1次2tomcat
這裏只是簡單的一個demo,固然在實際管理工做中還有更多的配置服務器
擴展:更多屬性配置介紹session
ip_hash(訪問ip) 每一個請求按訪問ip的hash結果分配,這樣每一個訪客固定訪問一個後端服務器,能夠解決session的問題。併發
upstream favresin{ ip_hash; server 10.0.0.10:8080; server 10.0.0.11:8080; }
fair(第三方) 按後端服務器的響應時間來分配請求,響應時間短的優先分配。與weight分配策略相似。
upstream favresin{ server 10.0.0.10:8080; server 10.0.0.11:8080; fair; }
url_hash(第三方) 按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,後端服務器爲緩存時比較有效。 注意:在upstream中加入hash語句,server語句中不能寫入weight等其餘的參數,hash_method是使用的hash算法。
upstream resinserver{ server 10.0.0.10:7777; server 10.0.0.11:8888; hash $request_uri; hash_method crc32; }
upstream還能夠爲每一個設備設置狀態值,這些狀態值的含義分別以下: down 表示單前的server暫時不參與負載. weight 默認爲1.weight越大,負載的權重就越大。 max_fails :容許請求失敗的次數默認爲1.當超過最大次數時,返回proxy_next_upstream 模塊定義的錯誤. fail_timeout : max_fails次失敗後,暫停的時間。 backup: 其它全部的非backup機器down或者忙的時候,請求backup機器。因此這臺機器壓力會最輕。
upstream bakend{ #定義負載均衡設備的Ip及設備狀態 ip_hash; server 10.0.0.11:9090 down; server 10.0.0.11:8080 weight=2; server 10.0.0.11:6060; server 10.0.0.11:7070 backup; }
用了nginx負載均衡後,在兩臺tomcat正常運行的狀況下,訪問http://localhost 速度很是迅速,經過測試程序也能夠看出是獲得的負載均衡的效果,可是咱們試驗性的把其中一臺tomcat(server localhost:8080)關閉後,再查看http://localhost,發現反應呈現了一半反映時間快,一半反映時間很是很是慢的狀況,可是最後都能獲得正確結果.
解決辦法: 問題解決,主要是proxy_connect_timeout 這個參數, 這個參數是鏈接的超時時間。 我設置成1,表示是1秒後超時會鏈接到另一臺服務器。這裏能夠配合fail_timeout 一塊兒使用,即,若是鏈接超過配置的時間後,就讓訪問的這個服務器 fail_timeout時間內再也不轉發給它請求(當成它宕機)