當網站服務器併發鏈接達到必定程度時,你可能須要考慮服務器系統中tcp協議設置對http服務器的影響。node
tcp相關延時主要包括:linux
一、tcp鏈接時創建握手;nginx
二、tcp慢啓動擁塞控制;算法
三、數據彙集的Nagle算法;瀏覽器
四、用於捎帶確認的tcp延遲確認算法;安全
五、TIME_WAIT時延和端口耗盡。服務器
對上面的延時影響,相應的優化方法有:cookie
一、http使用「持久化鏈接」,http 1.0中使用connection:keep-alive, http 1.1默認使用持久化鏈接;網絡
二、調整或禁止延遲確認算法(HTTP協議具備雙峯特徵的請求-應答行爲下降了捎帶確認的可能);併發
三、設置TCP_NODELAY禁止Nagle算法,提升性能;
四、TIME_WAIT設置爲一個較小的值。
根據上述分析,咱們能夠修改linux的tcp參數,經過vi 打開/etc/sysctl.conf,添加以下參數
net.ipv4.ip_local_port_range=1024 65000 net.ipv4.tcp_tw_reuse=1 net.ipv4.tcp_fin_timeout=15
其中,
net.ipv4.ip_local_port_range
在服務器收到不少鏈接時,系統的可用端口將很快被耗盡。經過修改net.ipv4.ip_local_port_range參數,能夠將可用端口的範圍改大.
net.ipv4.tcp_tw_reuse
當服務器須要在大量TCP鏈接之間切換時,會產生大量處於TIME_WAIT狀態的鏈接。TIME_WAIT意味着鏈接自己是關閉的,但資源尚未釋放。將net_ipv4_tcp_tw_reuse設置爲1是讓內核在安全時儘可能回收鏈接,這比從新創建新鏈接要便宜得多。
net.ipv4.tcp_fin_timeout
這是處於TIME_WAIT狀態的鏈接在回收前必須等待的最小時間。改小它能夠加快回收。
若使用的是nginx服務器,還能夠在nginx.conf中以下設置
http { sendfile on; tcp_nodelay on; keepalive_timeout 60; ... ... }
第一行的 sendfile
配置能夠提升 Nginx 靜態資源託管效率。sendfile 是一個系統調用,直接在內核空間完成文件發送,不須要先 read 再 write,沒有上下文切換開銷。
TCP_NODELAY 也是一個 socket 選項,啓用後會禁用 Nagle 算法,儘快發送數據,能夠節約 200ms。Nginx 只會針對處於 keep-alive 狀態的 TCP 鏈接纔會啓用 tcp_nodelay。
最後一行用來指定服務端爲每一個 TCP 鏈接最多能夠保持多長時間。Nginx 的默認值是 75 秒,有些瀏覽器最多隻保持 60 秒,因此我統一設置爲 60。
咱們能夠經過命令 ss -s查看tcp鏈接信息
[root@localhost ~]# ss -s Total: 31985 (kernel 0) TCP: 7032 (estab 33, closed 6991, orphaned 4, synrecv 0, timewait 2336/0), ports 0 Transport Total IP IPv6 * 0 - - RAW 0 0 0 UDP 2 2 0 TCP 41 39 2 INET 43 41 2 FRAG 0 0 0
全部的TCP/IP參數都位於/proc/sys/net目錄下(請注意,對/proc/sys/net目錄下內容的修改都是臨時的,任何修改在系統重啓後都會丟失),例以下面這些重要的參數:
參數(路徑+文件) |
描述 |
默認值 |
優化值 |
/proc/sys/net/core/rmem_default |
默認的TCP數據接收窗口大小(字節)。 |
229376 |
256960 |
/proc/sys/net/core/rmem_max |
最大的TCP數據接收窗口(字節)。 |
131071 |
513920 |
/proc/sys/net/core/wmem_default |
默認的TCP數據發送窗口大小(字節)。 |
229376 |
256960 |
/proc/sys/net/core/wmem_max |
最大的TCP數據發送窗口(字節)。 |
131071 |
513920 |
/proc/sys/net/core/netdev_max_backlog |
在每一個網絡接口接收數據包的速率比內核處理這些包的速率快時,容許送到隊列的數據包的最大數目。 |
1000 |
2000 |
/proc/sys/net/core/somaxconn |
定義了系統中每個端口最大的監聽隊列的長度,這是個全局的參數。 |
128 |
2048 |
/proc/sys/net/core/optmem_max |
表示每一個套接字所容許的最大緩衝區的大小。 |
20480 |
81920 |
/proc/sys/net/ipv4/tcp_mem |
肯定TCP棧應該如何反映內存使用,每一個值的單位都是內存頁(一般是4KB)。第一個值是內存使用的下限;第二個值是內存壓力模式開始對緩衝區使用應用壓力的上限;第三個值是內存使用的上限。在這個層次上能夠將報文丟棄,從而減小對內存的使用。對於較大的BDP能夠增大這些值(注意,其單位是內存頁而不是字節)。 |
94011 125351 188022 |
131072 262144 524288 |
/proc/sys/net/ipv4/tcp_rmem |
爲自動調優定義socket使用的內存。第一個值是爲socket接收緩衝區分配的最少字節數;第二個值是默認值(該值會被rmem_default覆蓋),緩衝區在系統負載不重的狀況下能夠增加到這個值;第三個值是接收緩衝區空間的最大字節數(該值會被rmem_max覆蓋)。 |
4096 87380 4011232 |
8760 256960 4088000 |
/proc/sys/net/ipv4/tcp_wmem |
爲自動調優定義socket使用的內存。第一個值是爲socket發送緩衝區分配的最少字節數;第二個值是默認值(該值會被wmem_default覆蓋),緩衝區在系統負載不重的狀況下能夠增加到這個值;第三個值是發送緩衝區空間的最大字節數(該值會被wmem_max覆蓋)。 |
4096 16384 4011232 |
8760 256960 4088000 |
/proc/sys/net/ipv4/tcp_keepalive_time |
TCP發送keepalive探測消息的間隔時間(秒),用於確認TCP鏈接是否有效。 |
7200 |
1800 |
/proc/sys/net/ipv4/tcp_keepalive_intvl |
探測消息未得到響應時,重發該消息的間隔時間(秒)。 |
75 |
30 |
/proc/sys/net/ipv4/tcp_keepalive_probes |
在認定TCP鏈接失效以前,最多發送多少個keepalive探測消息。 |
9 |
3 |
/proc/sys/net/ipv4/tcp_sack |
啓用有選擇的應答(1表示啓用),經過有選擇地應答亂序接收到的報文來提升性能,讓發送者只發送丟失的報文段,(對於廣域網通訊來講)這個選項應該啓用,可是會增長對CPU的佔用。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_fack |
啓用轉發應答,能夠進行有選擇應答(SACK)從而減小擁塞狀況的發生,這個選項也應該啓用。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_timestamps |
TCP時間戳(會在TCP包頭增長12個字節),以一種比重發超時更精確的方法(參考RFC 1323)來啓用對RTT 的計算,爲實現更好的性能應該啓用這個選項。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_window_scaling |
啓用RFC 1323定義的window scaling,要支持超過64KB的TCP窗口,必須啓用該值(1表示啓用),TCP窗口最大至1GB,TCP鏈接雙方都啓用時才生效。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_syncookies |
表示是否打開TCP同步標籤(syncookie),內核必須打開了CONFIG_SYN_COOKIES項進行編譯,同步標籤能夠防止一個套接字在有過多試圖鏈接到達時引發過載。 |
1 |
1 |
/proc/sys/net/ipv4/tcp_tw_reuse |
表示是否容許將處於TIME-WAIT狀態的socket(TIME-WAIT的端口)用於新的TCP鏈接 。 |
0 |
1 |
/proc/sys/net/ipv4/tcp_tw_recycle |
可以更快地回收TIME-WAIT套接字。 |
0 |
1 |
/proc/sys/net/ipv4/tcp_fin_timeout |
對於本端斷開的socket鏈接,TCP保持在FIN-WAIT-2狀態的時間(秒)。對方可能會斷開鏈接或一直不結束鏈接或不可預料的進程死亡。 |
60 |
30 |
/proc/sys/net/ipv4/ip_local_port_range |
表示TCP/UDP協議容許使用的本地端口號 |
32768 61000 |
1024 65000 |
/proc/sys/net/ipv4/tcp_max_syn_backlog |
對於還未得到對方確認的鏈接請求,可保存在隊列中的最大數目。若是服務器常常出現過載,能夠嘗試增長這個數字。 |
2048 |
2048 |
/proc/sys/net/ipv4/tcp_low_latency |
容許TCP/IP棧適應在高吞吐量狀況下低延時的狀況,這個選項應該禁用。 |
0 |
|
/proc/sys/net/ipv4/tcp_westwood |
啓用發送者端的擁塞控制算法,它能夠維護對吞吐量的評估,並試圖對帶寬的總體利用狀況進行優化,對於WAN 通訊來講應該啓用這個選項。 |
0 |
|
/proc/sys/net/ipv4/tcp_bic |
爲快速長距離網絡啓用Binary Increase Congestion,這樣能夠更好地利用以GB速度進行操做的連接,對於WAN通訊應該啓用這個選項。 |
1 |
|
--------------------------------------------------------------------------------
最後,前段時間利用手頭的VPS搭建了一個google代理,訪問速度還行,分享給你們:
谷歌guge不行了,就打119
谷歌:guge119.com 谷歌學術:scholar.guge119.com