nginx+tomcat 負載均衡配置

簡單應用nignx + tomcat 實現服務器的負載均衡php

當服務器有高併發訪問亦或是須要更新項目重啓服務器的時候,爲了防止服務器沒法訪問,須要配置服務器集羣,當有服務器宕機的時候,nginx會將請求分發到能夠訪問,壓力較小的服務器上。html

下面是我本地作的一個簡單的測試: 須要: tomcat*2 + nginxnginx

分別配置2個tomcat的端口,我配置的是8080 和 18080; 而且配置tomcat的首頁(index.jsp) 這裏簡單的配置顯示1和2 啓動2個tomcat算法

輸入圖片說明

當訪問localhost:8080 和 localhost:18080 的時候 能夠訪問成功 輸入圖片說明後端

而後須要配置nginx 修改nginx/cong/nginx.conf緩存

#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;
	
	upstream    www.lbsky.com {
		server	127.0.0.1:8080	weight=3;    #weight 配置權重
		server 	127.0.0.1:18080	weight=1;
	}

    server {
        listen       80;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        #location / {
        #   root   html;
        #   index  index.html index.htm;
        #}
		
		location / {  # 將localhost的訪問 指向 www.lbsky.com
           proxy_pass   http://www.lbsky.com;
           proxy_redirect  default;
        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

而後訪問localhost,發現 分別展示1,2 而且每獲得3次1 而後獲得1次2tomcat

輸入圖片說明

這裏只是簡單的一個demo,固然在實際管理工做中還有更多的配置服務器

擴展:更多屬性配置介紹session

ip_hash(訪問ip) 每一個請求按訪問ip的hash結果分配,這樣每一個訪客固定訪問一個後端服務器,能夠解決session的問題併發

upstream favresin{
      ip_hash;
      server 10.0.0.10:8080;
      server 10.0.0.11:8080;
}

fair(第三方) 按後端服務器的響應時間來分配請求,響應時間短的優先分配。與weight分配策略相似。

upstream favresin{     
      server 10.0.0.10:8080;
      server 10.0.0.11:8080;
      fair;
}

url_hash(第三方) 按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,後端服務器爲緩存時比較有效。 注意:在upstream中加入hash語句,server語句中不能寫入weight等其餘的參數,hash_method是使用的hash算法。

upstream resinserver{
      server 10.0.0.10:7777;
      server 10.0.0.11:8888;
      hash $request_uri;
      hash_method crc32;
}

upstream還能夠爲每一個設備設置狀態值,這些狀態值的含義分別以下: down 表示單前的server暫時不參與負載. weight 默認爲1.weight越大,負載的權重就越大。 max_fails :容許請求失敗的次數默認爲1.當超過最大次數時,返回proxy_next_upstream 模塊定義的錯誤. fail_timeout : max_fails次失敗後,暫停的時間。 backup: 其它全部的非backup機器down或者忙的時候,請求backup機器。因此這臺機器壓力會最輕。

upstream bakend{ #定義負載均衡設備的Ip及設備狀態
      ip_hash;
      server 10.0.0.11:9090 down;
      server 10.0.0.11:8080 weight=2;
      server 10.0.0.11:6060;
      server 10.0.0.11:7070 backup;
}

用了nginx負載均衡後,在兩臺tomcat正常運行的狀況下,訪問http://localhost 速度很是迅速,經過測試程序也能夠看出是獲得的負載均衡的效果,可是咱們試驗性的把其中一臺tomcat(server localhost:8080)關閉後,再查看http://localhost,發現反應呈現了一半反映時間快,一半反映時間很是很是慢的狀況,可是最後都能獲得正確結果.

解決辦法: 問題解決,主要是proxy_connect_timeout 這個參數, 這個參數是鏈接的超時時間。 我設置成1,表示是1秒後超時會鏈接到另一臺服務器。這裏能夠配合fail_timeout 一塊兒使用,即,若是鏈接超過配置的時間後,就讓訪問的這個服務器 fail_timeout時間內再也不轉發給它請求(當成它宕機)

更多參數可參考下方 http://www.cnblogs.com/hunttown/p/5759959.html

相關文章
相關標籤/搜索