簡述tcp協議對http性能的影響及優化

  當網站服務器併發鏈接達到必定程度時,你可能須要考慮服務器系統中tcp協議設置對http服務器的影響。node

  tcp相關延時主要包括:linux

    一、tcp鏈接時創建握手;nginx

    二、tcp慢啓動擁塞控制;算法

    三、數據彙集的Nagle算法;瀏覽器

    四、用於捎帶確認的tcp延遲確認算法;安全

    五、TIME_WAIT時延和端口耗盡。服務器

  對上面的延時影響,相應的優化方法有:cookie

    一、http使用「持久化鏈接」,http 1.0中使用connection:keep-alive, http 1.1默認使用持久化鏈接;網絡

    二、調整或禁止延遲確認算法(HTTP協議具備雙峯特徵的請求-應答行爲下降了捎帶確認的可能);併發

    三、設置TCP_NODELAY禁止Nagle算法,提升性能;

    四、TIME_WAIT設置爲一個較小的值。

  

  根據上述分析,咱們能夠修改linux的tcp參數,經過vi 打開/etc/sysctl.conf,添加以下參數

net.ipv4.ip_local_port_range=1024 65000
net.ipv4.tcp_tw_reuse=1
net.ipv4.tcp_fin_timeout=15

  其中,

    net.ipv4.ip_local_port_range

    在服務器收到不少鏈接時,系統的可用端口將很快被耗盡。經過修改net.ipv4.ip_local_port_range參數,能夠將可用端口的範圍改大.

  

    net.ipv4.tcp_tw_reuse

    當服務器須要在大量TCP鏈接之間切換時,會產生大量處於TIME_WAIT狀態的鏈接。TIME_WAIT意味着鏈接自己是關閉的,但資源尚未釋放。將net_ipv4_tcp_tw_reuse設置爲1是讓內核在安全時儘可能回收鏈接,這比從新創建新鏈接要便宜得多。

 

    net.ipv4.tcp_fin_timeout

    這是處於TIME_WAIT狀態的鏈接在回收前必須等待的最小時間。改小它能夠加快回收。

 

    若使用的是nginx服務器,還能夠在nginx.conf中以下設置

http {
    sendfile           on;
    tcp_nodelay        on;

    keepalive_timeout  60;
    ... ...
}

  第一行的 sendfile 配置能夠提升 Nginx 靜態資源託管效率。sendfile 是一個系統調用,直接在內核空間完成文件發送,不須要先 read 再 write,沒有上下文切換開銷。

  TCP_NODELAY 也是一個 socket 選項,啓用後會禁用 Nagle 算法,儘快發送數據,能夠節約 200ms。Nginx 只會針對處於 keep-alive 狀態的 TCP 鏈接纔會啓用 tcp_nodelay。

  最後一行用來指定服務端爲每一個 TCP 鏈接最多能夠保持多長時間。Nginx 的默認值是 75 秒,有些瀏覽器最多隻保持 60 秒,因此我統一設置爲 60。

  咱們能夠經過命令 ss -s查看tcp鏈接信息

[root@localhost ~]# ss -s
Total: 31985 (kernel 0)
TCP:   7032 (estab 33, closed 6991, orphaned 4, synrecv 0, timewait 2336/0), ports 0

Transport Total     IP        IPv6
*         0         -         -
RAW       0         0         0
UDP       2         2         0
TCP       41        39        2
INET      43        41        2
FRAG      0         0         0

 

 全部的TCP/IP參數都位於/proc/sys/net目錄下(請注意,對/proc/sys/net目錄下內容的修改都是臨時的,任何修改在系統重啓後都會丟失),例以下面這些重要的參數:

參數(路徑+文件)

描述

默認值

優化值

/proc/sys/net/core/rmem_default

默認的TCP數據接收窗口大小(字節)。

229376

256960

/proc/sys/net/core/rmem_max

最大的TCP數據接收窗口(字節)。

131071

513920

/proc/sys/net/core/wmem_default

默認的TCP數據發送窗口大小(字節)。

229376

256960

/proc/sys/net/core/wmem_max

最大的TCP數據發送窗口(字節)。

131071

513920

/proc/sys/net/core/netdev_max_backlog

在每一個網絡接口接收數據包的速率比內核處理這些包的速率快時,容許送到隊列的數據包的最大數目。

1000

2000

/proc/sys/net/core/somaxconn

定義了系統中每個端口最大的監聽隊列的長度,這是個全局的參數。

128

2048

/proc/sys/net/core/optmem_max

表示每一個套接字所容許的最大緩衝區的大小。

20480

81920

/proc/sys/net/ipv4/tcp_mem

肯定TCP棧應該如何反映內存使用,每一個值的單位都是內存頁(一般是4KB)。第一個值是內存使用的下限;第二個值是內存壓力模式開始對緩衝區使用應用壓力的上限;第三個值是內存使用的上限。在這個層次上能夠將報文丟棄,從而減小對內存的使用。對於較大的BDP能夠增大這些值(注意,其單位是內存頁而不是字節)。

94011  125351  188022

131072  262144  524288

/proc/sys/net/ipv4/tcp_rmem

爲自動調優定義socket使用的內存。第一個值是爲socket接收緩衝區分配的最少字節數;第二個值是默認值(該值會被rmem_default覆蓋),緩衝區在系統負載不重的狀況下能夠增加到這個值;第三個值是接收緩衝區空間的最大字節數(該值會被rmem_max覆蓋)。

4096  87380  4011232

8760  256960  4088000

/proc/sys/net/ipv4/tcp_wmem

爲自動調優定義socket使用的內存。第一個值是爲socket發送緩衝區分配的最少字節數;第二個值是默認值(該值會被wmem_default覆蓋),緩衝區在系統負載不重的狀況下能夠增加到這個值;第三個值是發送緩衝區空間的最大字節數(該值會被wmem_max覆蓋)。

4096  16384  4011232

8760  256960  4088000

/proc/sys/net/ipv4/tcp_keepalive_time

TCP發送keepalive探測消息的間隔時間(秒),用於確認TCP鏈接是否有效。

7200

1800

/proc/sys/net/ipv4/tcp_keepalive_intvl

探測消息未得到響應時,重發該消息的間隔時間(秒)。

75

30

/proc/sys/net/ipv4/tcp_keepalive_probes

在認定TCP鏈接失效以前,最多發送多少個keepalive探測消息。

9

3

/proc/sys/net/ipv4/tcp_sack

啓用有選擇的應答(1表示啓用),經過有選擇地應答亂序接收到的報文來提升性能,讓發送者只發送丟失的報文段,(對於廣域網通訊來講)這個選項應該啓用,可是會增長對CPU的佔用。

1

1

/proc/sys/net/ipv4/tcp_fack

啓用轉發應答,能夠進行有選擇應答(SACK)從而減小擁塞狀況的發生,這個選項也應該啓用。

1

1

/proc/sys/net/ipv4/tcp_timestamps

TCP時間戳(會在TCP包頭增長12個字節),以一種比重發超時更精確的方法(參考RFC 1323)來啓用對RTT 的計算,爲實現更好的性能應該啓用這個選項。

1

1

/proc/sys/net/ipv4/tcp_window_scaling

啓用RFC 1323定義的window scaling,要支持超過64KB的TCP窗口,必須啓用該值(1表示啓用),TCP窗口最大至1GB,TCP鏈接雙方都啓用時才生效。

1

1

/proc/sys/net/ipv4/tcp_syncookies

表示是否打開TCP同步標籤(syncookie),內核必須打開了CONFIG_SYN_COOKIES項進行編譯,同步標籤能夠防止一個套接字在有過多試圖鏈接到達時引發過載。

1

1

/proc/sys/net/ipv4/tcp_tw_reuse

表示是否容許將處於TIME-WAIT狀態的socket(TIME-WAIT的端口)用於新的TCP鏈接 。

0

1

/proc/sys/net/ipv4/tcp_tw_recycle

可以更快地回收TIME-WAIT套接字。

0

1

/proc/sys/net/ipv4/tcp_fin_timeout

對於本端斷開的socket鏈接,TCP保持在FIN-WAIT-2狀態的時間(秒)。對方可能會斷開鏈接或一直不結束鏈接或不可預料的進程死亡。

60

30

/proc/sys/net/ipv4/ip_local_port_range

表示TCP/UDP協議容許使用的本地端口號

32768  61000

1024  65000

/proc/sys/net/ipv4/tcp_max_syn_backlog

對於還未得到對方確認的鏈接請求,可保存在隊列中的最大數目。若是服務器常常出現過載,能夠嘗試增長這個數字。

2048

2048

/proc/sys/net/ipv4/tcp_low_latency

容許TCP/IP棧適應在高吞吐量狀況下低延時的狀況,這個選項應該禁用。

0

 

/proc/sys/net/ipv4/tcp_westwood

啓用發送者端的擁塞控制算法,它能夠維護對吞吐量的評估,並試圖對帶寬的總體利用狀況進行優化,對於WAN 通訊來講應該啓用這個選項。

0

 

/proc/sys/net/ipv4/tcp_bic

爲快速長距離網絡啓用Binary Increase Congestion,這樣能夠更好地利用以GB速度進行操做的連接,對於WAN通訊應該啓用這個選項。

1

 

 

 

--------------------------------------------------------------------------------

 

   最後,前段時間利用手頭的VPS搭建了一個google代理,訪問速度還行,分享給你們:

 

    谷歌guge不行了,就打119

 

    谷歌:guge119.com 谷歌學術:scholar.guge119.com 

相關文章
相關標籤/搜索