nginx配置 啓動

1.配置文件詳解

user nginx nginx ;
Nginx用戶及組:用戶 組。window下不指定
worker_processes 8;
工做進程:數目。根據硬件調整,一般等於CPU數量或者2倍於CPU。

error_log  logs/error.log;  
error_log  logs/error.log  notice;  
error_log  logs/error.log  info;  
錯誤日誌:存放路徑。
 
pid logs/nginx.pid;
pid(進程標識符):存放路徑。

worker_rlimit_nofile 204800;
指定進程能夠打開的最大描述符:數目。
這個指令是指當一個nginx進程打開的最多文件描述符數目,理論值應該是最多打開文件數(ulimit -n)與nginx進程數相除,可是nginx分配請求並非那麼均勻,因此最好與ulimit -n 的值保持一致。
如今在Linux 2.6內核下開啓文件打開數爲65535,worker_rlimit_nofile就相應應該填寫65535。
這是由於nginx調度時分配請求到進程並非那麼的均衡,因此假如填寫10240,總併發量達到3-4萬時就有進程可能超過10240了,這時會返回502錯誤。
 
events
{
use epoll;
使用epoll的I/O 模型。linux建議epoll,FreeBSD建議採用kqueue,window下不指定。
補充說明:
與apache相類,nginx針對不一樣的操做系統,有不一樣的事件模型
A)標準事件模型
Select、poll屬於標準事件模型,若是當前系統不存在更有效的方法,nginx會選擇select或poll
B)高效事件模型
Kqueue:使用於FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用雙處理器的MacOS X系統使用kqueue可能會形成內核崩潰。
Epoll:使用於Linux內核2.6版本及之後的系統。
/dev/poll:使用於Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
Eventport:使用於Solaris 10。 爲了防止出現內核崩潰的問題, 有必要安裝安全補丁。

worker_connections 204800;
沒個工做進程的最大鏈接數量。根據硬件調整,和前面工做進程配合起來用,儘可能大,可是別把cpu跑到100%就行。每一個進程容許的最多鏈接數,理論上每臺nginx服務器的最大鏈接數爲。worker_processes*worker_connections

keepalive_timeout 60;
keepalive超時時間。
 
client_header_buffer_size 4k;
客戶端請求頭部的緩衝區大小。這個能夠根據你的系統分頁大小來設置,通常一個請求頭的大小不會超過1k,不過因爲通常系統分頁都要大於1k,因此這裏設置爲分頁大小。
分頁大小能夠用命令getconf PAGESIZE 取得。

[root@web001 ~]# getconf PAGESIZE
4096
但也有client_header_buffer_size超過4k的狀況,可是client_header_buffer_size該值必須設置爲「系統分頁大小」的整倍數。
 
open_file_cache max=65535 inactive=60s;
這個將爲打開文件指定緩存,默認是沒有啓用的,max指定緩存數量,建議和打開文件數一致,inactive是指通過多長時間文件沒被請求後刪除緩存。


open_file_cache_valid 80s;
這個是指多長時間檢查一次緩存的有效信息。

 
open_file_cache_min_uses 1;
open_file_cache指令中的inactive參數時間內文件的最少使用次數,若是超過這個數字,文件描述符一直是在緩存中打開的,如上例,若是有一個文件在inactive時間內一次沒被使用,它將被移除。

}


##設定http服務器,利用它的反向代理功能提供負載均衡支持
http
{
include mime.types;
設定mime類型,類型由mime.type文件定義
 

default_type application/octet-stream;
 
log_format main '$remote_addr - $remote_user [$time_local] "$request" '

'$status $body_bytes_sent "$http_referer" '

'"$http_user_agent" "$http_x_forwarded_for"';

log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location';

日誌格式設置。

$remote_addr與$http_x_forwarded_for用以記錄客戶端的ip地址;

$remote_user:用來記錄客戶端用戶名稱;

$time_local: 用來記錄訪問時間與時區;

$request: 用來記錄請求的url與http協議;

$status: 用來記錄請求狀態;成功是200,

$body_bytes_sent :記錄發送給客戶端文件主體內容大小;

$http_referer:用來記錄從那個頁面連接訪問過來的;

$http_user_agent:記錄客戶瀏覽器的相關信息;

一般web服務器放在反向代理的後面,這樣就不能獲取到客戶的IP地址了,經過$remote_add拿到的IP地址是反向代理服務器的iP地址。反向代理服務器在轉發請求的http頭信息中,能夠增長x_forwarded_for信息,用以記錄原有客戶端的IP地址和原來客戶端的請求的服務器地址。
 

access_log  logs/host.access.log  main;
access_log  logs/host.access.404.log  log404;
用了log_format指令設置了日誌格式以後,須要用access_log指令指定日誌文件的存放路徑;

 

server_names_hash_bucket_size 128;
#保存服務器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。參數hash bucket size老是等於hash表的大小,而且是一路處理器緩存大小的倍數。在減小了在內存中的存取次數後,使在處理器中加速查找hash表鍵值成爲可能。若是hash bucket size等於一路處理器緩存的大小,那麼在查找鍵的時候,最壞的狀況下在內存中查找的次數爲2。第一次是肯定存儲單元的地址,第二次是在存儲單元中查找鍵 值。所以,若是Nginx給出須要增大hash max size 或 hash bucket size的提示,那麼首要的是增大前一個參數的大小.

client_header_buffer_size 4k;
客戶端請求頭部的緩衝區大小。這個能夠根據你的系統分頁大小來設置,通常一個請求的頭部大小不會超過1k,不過因爲通常系統分頁都要大於1k,因此這裏設置爲分頁大小。分頁大小能夠用命令getconf PAGESIZE取得。

large_client_header_buffers 8 128k;
客戶請求頭緩衝大小。nginx默認會用client_header_buffer_size這個buffer來讀取header值,若是
header過大,它會使用large_client_header_buffers來讀取。

open_file_cache max=102400 inactive=20s;
這個指令指定緩存是否啓用。
例: open_file_cache max=1000 inactive=20s; 

open_file_cache_valid 30s; 

open_file_cache_min_uses 2; 

open_file_cache_errors on;

 
open_file_cache_errors
語法:open_file_cache_errors on | off 默認值:open_file_cache_errors off 使用字段:http, server, location 這個指令指定是否在搜索一個文件是記錄cache錯誤.

open_file_cache_min_uses
語法:open_file_cache_min_uses number 默認值:open_file_cache_min_uses 1 使用字段:http, server, location 這個指令指定了在open_file_cache指令無效的參數中必定的時間範圍內可使用的最小文件數,若是使用更大的值,文件描述符在cache中老是打開狀態.

open_file_cache_valid
語法:open_file_cache_valid time 默認值:open_file_cache_valid 60 使用字段:http, server, location 這個指令指定了什麼時候須要檢查open_file_cache中緩存項目的有效信息.

client_max_body_size 300m;
設定經過nginx上傳文件的大小

sendfile on;
sendfile指令指定 nginx 是否調用sendfile 函數(zero copy 方式)來輸出文件,對於普通應用,必須設爲on。若是用來進行下載等應用磁盤IO重負載應用,可設置爲off,以平衡磁盤與網絡IO處理速度,下降系統uptime。

tcp_nopush on;
此選項容許或禁止使用socke的TCP_CORK的選項,此選項僅在使用sendfile的時候使用

proxy_connect_timeout 90; 
後端服務器鏈接的超時時間_發起握手等候響應超時時間

proxy_read_timeout 180;
鏈接成功後_等候後端服務器響應時間_其實已經進入後端的排隊之中等候處理(也能夠說是後端服務器處理請求的時間)

proxy_send_timeout 180;
後端服務器數據回傳時間_就是在規定時間以內後端服務器必須傳完全部的數據

proxy_buffer_size 256k;
設置從被代理服務器讀取的第一部分應答的緩衝區大小,一般狀況下這部分應答中包含一個小的應答頭,默認狀況下這個值的大小爲指令proxy_buffers中指定的一個緩衝區的大小,不過能夠將其設置爲更小

proxy_buffers 4 256k;
設置用於讀取應答(來自被代理服務器)的緩衝區數目和大小,默認狀況也爲分頁大小,根據操做系統的不一樣多是4k或者8k

proxy_busy_buffers_size 256k;

proxy_temp_file_write_size 256k;

設置在寫入proxy_temp_path時數據的大小,預防一個工做進程在傳遞文件時阻塞太長

 

proxy_temp_path /data0/proxy_temp_dir;
proxy_temp_path和proxy_cache_path指定的路徑必須在同一分區

proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g;
#設置內存緩存空間大小爲200MB,1天沒有被訪問的內容自動清除,硬盤緩存空間大小爲30GB。

keepalive_timeout 120;
keepalive超時時間。 

tcp_nodelay on;
 
client_body_buffer_size 512k;
若是把它設置爲比較大的數值,例如256k,那麼,不管使用firefox仍是IE瀏覽器,來提交任意小於256k的圖片,都很正常。若是註釋該指令,使用默認的client_body_buffer_size設置,也就是操做系統頁面大小的兩倍,8k或者16k,問題就出現了。
不管使用firefox4.0仍是IE8.0,提交一個比較大,200k左右的圖片,都返回500 Internal Server Error錯誤


proxy_intercept_errors on;
表示使nginx阻止HTTP應答代碼爲400或者更高的應答。

 
upstream bakend {

server 127.0.0.1:8027;

server 127.0.0.1:8028;

server 127.0.0.1:8029;

hash $request_uri;

}

nginx的upstream目前支持4種方式的分配
一、輪詢(默認)

每一個請求按時間順序逐一分配到不一樣的後端服務器,若是後端服務器down掉,能自動剔除。

二、weight
指定輪詢概率,weight和訪問比率成正比,用於後端服務器性能不均的狀況。
例如:
upstream bakend {
server 192.168.0.14 weight=10;
server 192.168.0.15 weight=10;
}

二、ip_hash
每一個請求按訪問ip的hash結果分配,這樣每一個訪客固定訪問一個後端服務器,能夠解決session的問題。
例如:
upstream bakend {
ip_hash;
server 192.168.0.14:88;
server 192.168.0.15:80;
}

三、fair(第三方)
按後端服務器的響應時間來分配請求,響應時間短的優先分配。
upstream backend {
server server1;
server server2;
fair;
}

四、url_hash(第三方)

按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,後端服務器爲緩存時比較有效。

例:在upstream中加入hash語句,server語句中不能寫入weight等其餘的參數,hash_method是使用的hash算法

upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}

tips:

upstream bakend{#定義負載均衡設備的Ip及設備狀態}{
ip_hash;
server 127.0.0.1:9090 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6060;
server 127.0.0.1:7070 backup;
}
在須要使用負載均衡的server中增長
proxy_pass http://bakend/;

每一個設備的狀態設置爲:
1.down表示單前的server暫時不參與負載
2.weight爲weight越大,負載的權重就越大。
3.max_fails:容許請求失敗的次數默認爲1.當超過最大次數時,返回proxy_next_upstream模塊定義的錯誤
4.fail_timeout:max_fails次失敗後,暫停的時間。
5.backup: 其它全部的非backup機器down或者忙的時候,請求backup機器。因此這臺機器壓力會最輕。

nginx支持同時設置多組的負載均衡,用來給不用的server來使用。

client_body_in_file_only設置爲On 能夠講client post過來的數據記錄到文件中用來作debug
client_body_temp_path設置記錄文件的目錄 能夠設置最多3層目錄

location對URL進行匹配.能夠進行重定向或者進行新的代理 負載均衡
##配置虛擬機
server{
listen 80;
配置監聽端口
server_name image.***.com;
配置訪問域名
location ~* \.(mp3|exe)$ {
對以「mp3或exe」結尾的地址進行負載均衡
proxy_pass http://img_relay$request_uri;
設置被代理服務器的端口或套接字,以及URL
proxy_set_header Host $host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;

以上三行,目的是將代理服務器收到的用戶的信息傳到真實服務器上

}

2.啓動、重啓、關閉

1.測試配置文件是否正確:

    在/nginx/sbin/目錄下node

./nginx -t

顯示 nginx.conf syntax is ok 說明配置OKlinux

2.啓動

/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf

3.重啓

./nginx -s reload

4.關閉

kill -9 nginx
相關文章
相關標籤/搜索