windows下nginx+tomcat分佈式集羣部署

 

首先官網下載  http://nginx.org/en/download.html,個人本地環境爲javascript

實現的架構:php

 

從圖上能夠看出,nginx做爲負載均衡請求分發器,當請求A應用時候,分發到A集羣,同理當請求B應用的時候,分發到B集羣。css

nginx.conf配置html

#Nginx所用用戶和組,window下不指定  
#user  niumd niumd;  
  
#工做的子進程數量(一般等於CPU數量或者2倍於CPU)  
worker_processes  2;  
  
#錯誤日誌存放路徑  
#error_log  logs/error.log;  
#error_log  logs/error.log  notice;  
error_log  logs/error.log  info;  
  
#指定pid存放文件  
pid        logs/nginx.pid;  
  
events {  
    #使用網絡IO模型linux建議epoll,FreeBSD建議採用kqueue,window下不指定。  
    #use epoll;  
      
    #容許最大鏈接數  
    worker_connections  2048;  
}  


http {  
    include       mime.types;  
    default_type  application/octet-stream;  
  
        #定義日誌格式  
    #log_format  main  '$remote_addr - $remote_user [$time_local] $request '  
    #                  '"$status" $body_bytes_sent "$http_referer" '  
    #                  '"$http_user_agent" "$http_x_forwarded_for"';  
  
    #access_log  off;  
    access_log  logs/access.log;  
  
    client_header_timeout  3m;  
    client_body_timeout    3m;  
    send_timeout           3m;  
   
    client_header_buffer_size    1k;  
    large_client_header_buffers  4 4k;  
  
    sendfile        on;  
    tcp_nopush      on;  
    tcp_nodelay     on;  
  
    #keepalive_timeout  75 20;  
  
    include    gzip.conf;
    upstream localhost {  
      #根據ip計算將請求分配各那個後端tomcat,許多人誤認爲能夠解決session問題,其實並不能。  
      #同一機器在多網狀況下,路由切換,ip可能不一樣  
      #ip_hash;   
      server localhost:18001;  
      server localhost:18002;
      server localhost:18003;  
      server localhost:18004;    
     } 
     upstream t1 {  
      server localhost:18001;  
     }   
      upstream t2{  
     
      server localhost:18002;  
     }   
     
    server {
        listen       80;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
         #   root   html;
         #   index  index.html index.htm;
         proxy_connect_timeout   3;  
         proxy_send_timeout      30;  
         proxy_read_timeout      30;  
         proxy_pass http://localhost;
        }

        location /t1.jsp {
         #   root   html;
         #   index  index.html index.htm;
         proxy_connect_timeout   3;  
         proxy_send_timeout      30;  
         proxy_read_timeout      30;  
         proxy_pass http://t1;
        }
       location /t2.jsp {
         #   root   html;
         #   index  index.html index.htm;
         proxy_connect_timeout   3;  
         proxy_send_timeout      30;  
         proxy_read_timeout      30;  
         proxy_pass http://t2;
        }
        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443;
    #    server_name  localhost;

    #    ssl                  on;
    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_timeout  5m;

    #    ssl_protocols  SSLv2 SSLv3 TLSv1;
    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers   on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

  Proxy.confjava

proxy_redirect          off;  
proxy_set_header        Host $host;  
proxy_set_header        X-Real-IP $remote_addr;  
proxy_set_header        X-Forwarded-For $proxy_add_x_forwarded_for;  
client_max_body_size    10m;  
client_body_buffer_size 128k;  
proxy_connect_timeout   300;  
proxy_send_timeout      300;  
proxy_read_timeout      300;  
proxy_buffer_size       4k;  
proxy_buffers           4 32k;  
proxy_busy_buffers_size 64k;  
proxy_temp_file_write_size 64k;  

  Gzip.confnode

gzip              on;  
gzip_min_length      1000;  
gzip_types         text/plain text/css application/x-javascript;

  tomcat由於是隻有一臺主機,server.xml將端口號所有改成不一樣的。linux

 

這個地方分別每臺tomcat加上標識tomcat1,tomcat2,tomcat3,tomcat4nginx

而後分別在D:\nginxtomcat\apache-tomcat-6.0.18_1\webapps\ROOT,我本地環境路徑下,寫個jsp文件,內容分別是tomcat1,tomcat2,tomcat3,tomcat4。。。用來測試nginx分發web

 

jsp內容:算法

 

 tomcat端口號修改完,以及加上jsp文件之後,就能夠測試了。

啓動nginx:

nginx -t 測試nginx.conf文件,若是有錯誤,會提示好比下面的錯誤

start nginx。之後臺運行nginx的方式啓動(推薦用這種方式)

分別啓動tomcat1,tomcat2,tomcat3,tomcat4。。。用來測試nginx分發

 

訪問http://localhost/hello.jsp

頁面依次出現tomcat1,2,3,內容。證實成功了。。。

由於nginx默認按輪訓的方式依次分發的,若是想改變負載方式,修改這裏

關於upstream:

 

一、輪詢(默認)

每一個請求按時間順序逐一分配到不一樣的後端服務器,若是後端服務器down掉,能自動剔除。

二、weight
指定輪詢概率,weight和訪問比率成正比,用於後端服務器性能不均的狀況。
例如:

upstream bakend {
server 192.168.159.10 weight=10;
server 192.168.159.11 weight=10;
}

 


三、ip_hash
每一個請求按訪問ip的hash結果分配,這樣每一個訪客固定訪問一個後端服務器,能夠解決session的問題。
例如:

upstream resinserver{
ip_hash;
server 192.168.159.10:8080;
server 192.168.159.11:8080;
}


四、fair(第三方)
按後端服務器的響應時間來分配請求,響應時間短的優先分配。

upstream resinserver{
server server1;
server server2;
fair;
}


五、url_hash(第三方)

按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,後端服務器爲緩存時比較有效。

例:在upstream中加入hash語句,server語句中不能寫入weight等其餘的參數,hash_method是使用的hash算法


upstream resinserver{
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

tips:

 

upstream resinserver{#定義負載均衡設備的Ip及設備狀態
ip_hash;
server 127.0.0.1:8000 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6801;
server 127.0.0.1:6802 backup;
}

在須要使用負載均衡的server中增長

proxy_pass http://resinserver/;


每一個設備的狀態設置爲:
1.down 表示單前的server暫時不參與負載
2.weight 默認爲1.weight越大,負載的權重就越大。
3.max_fails :容許請求失敗的次數默認爲1.當超過最大次數時,返回proxy_next_upstream 模塊定義的錯誤
4.fail_timeout:max_fails次失敗後,暫停的時間。
5.backup: 其它全部的非backup機器down或者忙的時候,請求backup機器。因此這臺機器壓力會最輕。

nginx支持同時設置多組的負載均衡,用來給不用的server來使用。

client_body_in_file_only 設置爲On 能夠講client post過來的數據記錄到文件中用來作debug
client_body_temp_path 設置記錄文件的目錄 能夠設置最多3層目錄
location 對URL進行匹配.能夠進行重定向或者進行新的代理 負載均衡

 

 

到此結束了,在生產環境下,一臺nginx確定是不夠完美的,若是nginx掛掉,是否是整個應用就down了。。。生產環境下,咱們能夠部署多臺nginx,利用f5或者lvs+keepalive來實現負載。

f5是傳輸層負載。

nginx是應用層負載。

相關文章
相關標籤/搜索