user nginx nginx ; Nginx用戶及組:用戶 組。window下不指定 worker_processes 8; 工做進程:數目。根據硬件調整,一般等於CPU數量或者2倍於CPU。 error_log logs/error.log; error_log logs/error.log notice; error_log logs/error.log info; 錯誤日誌:存放路徑。 pid logs/nginx.pid; pid(進程標識符):存放路徑。 worker_rlimit_nofile 204800; 指定進程能夠打開的最大描述符:數目。 這個指令是指當一個nginx進程打開的最多文件描述符數目,理論值應該是最多打開文件數(ulimit -n)與nginx進程數相除,可是nginx分配請求並非那麼均勻,因此最好與ulimit -n 的值保持一致。 如今在Linux 2.6內核下開啓文件打開數爲65535,worker_rlimit_nofile就相應應該填寫65535。 這是由於nginx調度時分配請求到進程並非那麼的均衡,因此假如填寫10240,總併發量達到3-4萬時就有進程可能超過10240了,這時會返回502錯誤。 events { use epoll; 使用epoll的I/O 模型。linux建議epoll,FreeBSD建議採用kqueue,window下不指定。 補充說明: 與apache相類,nginx針對不一樣的操做系統,有不一樣的事件模型 A)標準事件模型 Select、poll屬於標準事件模型,若是當前系統不存在更有效的方法,nginx會選擇select或poll B)高效事件模型 Kqueue:使用於FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用雙處理器的MacOS X系統使用kqueue可能會形成內核崩潰。 Epoll:使用於Linux內核2.6版本及之後的系統。 /dev/poll:使用於Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。 Eventport:使用於Solaris 10。 爲了防止出現內核崩潰的問題, 有必要安裝安全補丁。 worker_connections 204800; 沒個工做進程的最大鏈接數量。根據硬件調整,和前面工做進程配合起來用,儘可能大,可是別把cpu跑到100%就行。每一個進程容許的最多鏈接數,理論上每臺nginx服務器的最大鏈接數爲。worker_processes*worker_connections keepalive_timeout 60; keepalive超時時間。 client_header_buffer_size 4k; 客戶端請求頭部的緩衝區大小。這個能夠根據你的系統分頁大小來設置,通常一個請求頭的大小不會超過1k,不過因爲通常系統分頁都要大於1k,因此這裏設置爲分頁大小。 分頁大小能夠用命令getconf PAGESIZE 取得。 [root@web001 ~]# getconf PAGESIZE 4096 但也有client_header_buffer_size超過4k的狀況,可是client_header_buffer_size該值必須設置爲「系統分頁大小」的整倍數。 open_file_cache max=65535 inactive=60s; 這個將爲打開文件指定緩存,默認是沒有啓用的,max指定緩存數量,建議和打開文件數一致,inactive是指通過多長時間文件沒被請求後刪除緩存。 open_file_cache_valid 80s; 這個是指多長時間檢查一次緩存的有效信息。 open_file_cache_min_uses 1; open_file_cache指令中的inactive參數時間內文件的最少使用次數,若是超過這個數字,文件描述符一直是在緩存中打開的,如上例,若是有一個文件在inactive時間內一次沒被使用,它將被移除。 } ##設定http服務器,利用它的反向代理功能提供負載均衡支持 http { include mime.types; 設定mime類型,類型由mime.type文件定義 default_type application/octet-stream; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location'; 日誌格式設置。 $remote_addr與$http_x_forwarded_for用以記錄客戶端的ip地址; $remote_user:用來記錄客戶端用戶名稱; $time_local: 用來記錄訪問時間與時區; $request: 用來記錄請求的url與http協議; $status: 用來記錄請求狀態;成功是200, $body_bytes_sent :記錄發送給客戶端文件主體內容大小; $http_referer:用來記錄從那個頁面連接訪問過來的; $http_user_agent:記錄客戶瀏覽器的相關信息; 一般web服務器放在反向代理的後面,這樣就不能獲取到客戶的IP地址了,經過$remote_add拿到的IP地址是反向代理服務器的iP地址。反向代理服務器在轉發請求的http頭信息中,能夠增長x_forwarded_for信息,用以記錄原有客戶端的IP地址和原來客戶端的請求的服務器地址。 access_log logs/host.access.log main; access_log logs/host.access.404.log log404; 用了log_format指令設置了日誌格式以後,須要用access_log指令指定日誌文件的存放路徑; server_names_hash_bucket_size 128; #保存服務器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。參數hash bucket size老是等於hash表的大小,而且是一路處理器緩存大小的倍數。在減小了在內存中的存取次數後,使在處理器中加速查找hash表鍵值成爲可能。若是hash bucket size等於一路處理器緩存的大小,那麼在查找鍵的時候,最壞的狀況下在內存中查找的次數爲2。第一次是肯定存儲單元的地址,第二次是在存儲單元中查找鍵 值。所以,若是Nginx給出須要增大hash max size 或 hash bucket size的提示,那麼首要的是增大前一個參數的大小. client_header_buffer_size 4k; 客戶端請求頭部的緩衝區大小。這個能夠根據你的系統分頁大小來設置,通常一個請求的頭部大小不會超過1k,不過因爲通常系統分頁都要大於1k,因此這裏設置爲分頁大小。分頁大小能夠用命令getconf PAGESIZE取得。 large_client_header_buffers 8 128k; 客戶請求頭緩衝大小。nginx默認會用client_header_buffer_size這個buffer來讀取header值,若是 header過大,它會使用large_client_header_buffers來讀取。 open_file_cache max=102400 inactive=20s; 這個指令指定緩存是否啓用。 例: open_file_cache max=1000 inactive=20s; open_file_cache_valid 30s; open_file_cache_min_uses 2; open_file_cache_errors on; open_file_cache_errors 語法:open_file_cache_errors on | off 默認值:open_file_cache_errors off 使用字段:http, server, location 這個指令指定是否在搜索一個文件是記錄cache錯誤. open_file_cache_min_uses 語法:open_file_cache_min_uses number 默認值:open_file_cache_min_uses 1 使用字段:http, server, location 這個指令指定了在open_file_cache指令無效的參數中必定的時間範圍內可使用的最小文件數,若是使用更大的值,文件描述符在cache中老是打開狀態. open_file_cache_valid 語法:open_file_cache_valid time 默認值:open_file_cache_valid 60 使用字段:http, server, location 這個指令指定了什麼時候須要檢查open_file_cache中緩存項目的有效信息. client_max_body_size 300m; 設定經過nginx上傳文件的大小 sendfile on; sendfile指令指定 nginx 是否調用sendfile 函數(zero copy 方式)來輸出文件,對於普通應用,必須設爲on。若是用來進行下載等應用磁盤IO重負載應用,可設置爲off,以平衡磁盤與網絡IO處理速度,下降系統uptime。 tcp_nopush on; 此選項容許或禁止使用socke的TCP_CORK的選項,此選項僅在使用sendfile的時候使用 proxy_connect_timeout 90; 後端服務器鏈接的超時時間_發起握手等候響應超時時間 proxy_read_timeout 180; 鏈接成功後_等候後端服務器響應時間_其實已經進入後端的排隊之中等候處理(也能夠說是後端服務器處理請求的時間) proxy_send_timeout 180; 後端服務器數據回傳時間_就是在規定時間以內後端服務器必須傳完全部的數據 proxy_buffer_size 256k; 設置從被代理服務器讀取的第一部分應答的緩衝區大小,一般狀況下這部分應答中包含一個小的應答頭,默認狀況下這個值的大小爲指令proxy_buffers中指定的一個緩衝區的大小,不過能夠將其設置爲更小 proxy_buffers 4 256k; 設置用於讀取應答(來自被代理服務器)的緩衝區數目和大小,默認狀況也爲分頁大小,根據操做系統的不一樣多是4k或者8k proxy_busy_buffers_size 256k; proxy_temp_file_write_size 256k; 設置在寫入proxy_temp_path時數據的大小,預防一個工做進程在傳遞文件時阻塞太長 proxy_temp_path /data0/proxy_temp_dir; proxy_temp_path和proxy_cache_path指定的路徑必須在同一分區 proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g; #設置內存緩存空間大小爲200MB,1天沒有被訪問的內容自動清除,硬盤緩存空間大小爲30GB。 keepalive_timeout 120; keepalive超時時間。 tcp_nodelay on; client_body_buffer_size 512k; 若是把它設置爲比較大的數值,例如256k,那麼,不管使用firefox仍是IE瀏覽器,來提交任意小於256k的圖片,都很正常。若是註釋該指令,使用默認的client_body_buffer_size設置,也就是操做系統頁面大小的兩倍,8k或者16k,問題就出現了。 不管使用firefox4.0仍是IE8.0,提交一個比較大,200k左右的圖片,都返回500 Internal Server Error錯誤 proxy_intercept_errors on; 表示使nginx阻止HTTP應答代碼爲400或者更高的應答。 upstream bakend { server 127.0.0.1:8027; server 127.0.0.1:8028; server 127.0.0.1:8029; hash $request_uri; } nginx的upstream目前支持4種方式的分配 一、輪詢(默認) 每一個請求按時間順序逐一分配到不一樣的後端服務器,若是後端服務器down掉,能自動剔除。 二、weight 指定輪詢概率,weight和訪問比率成正比,用於後端服務器性能不均的狀況。 例如: upstream bakend { server 192.168.0.14 weight=10; server 192.168.0.15 weight=10; } 二、ip_hash 每一個請求按訪問ip的hash結果分配,這樣每一個訪客固定訪問一個後端服務器,能夠解決session的問題。 例如: upstream bakend { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; } 三、fair(第三方) 按後端服務器的響應時間來分配請求,響應時間短的優先分配。 upstream backend { server server1; server server2; fair; } 四、url_hash(第三方) 按訪問url的hash結果來分配請求,使每一個url定向到同一個後端服務器,後端服務器爲緩存時比較有效。 例:在upstream中加入hash語句,server語句中不能寫入weight等其餘的參數,hash_method是使用的hash算法 upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; } tips: upstream bakend{#定義負載均衡設備的Ip及設備狀態}{ ip_hash; server 127.0.0.1:9090 down; server 127.0.0.1:8080 weight=2; server 127.0.0.1:6060; server 127.0.0.1:7070 backup; } 在須要使用負載均衡的server中增長 proxy_pass http://bakend/; 每一個設備的狀態設置爲: 1.down表示單前的server暫時不參與負載 2.weight爲weight越大,負載的權重就越大。 3.max_fails:容許請求失敗的次數默認爲1.當超過最大次數時,返回proxy_next_upstream模塊定義的錯誤 4.fail_timeout:max_fails次失敗後,暫停的時間。 5.backup: 其它全部的非backup機器down或者忙的時候,請求backup機器。因此這臺機器壓力會最輕。 nginx支持同時設置多組的負載均衡,用來給不用的server來使用。 client_body_in_file_only設置爲On 能夠講client post過來的數據記錄到文件中用來作debug client_body_temp_path設置記錄文件的目錄 能夠設置最多3層目錄 location對URL進行匹配.能夠進行重定向或者進行新的代理 負載均衡 ##配置虛擬機 server{ listen 80; 配置監聽端口 server_name image.***.com; 配置訪問域名 location ~* \.(mp3|exe)$ { 對以「mp3或exe」結尾的地址進行負載均衡 proxy_pass http://img_relay$request_uri; 設置被代理服務器的端口或套接字,以及URL proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 以上三行,目的是將代理服務器收到的用戶的信息傳到真實服務器上 }
在/nginx/sbin/目錄下node
./nginx -t
顯示 nginx.conf syntax is ok 說明配置OKlinux
/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
./nginx -s reload
kill -9 nginx