[TOC]linux
曾幾什麼時候咱們還在尋求網絡編程中C10K問題的解決方案,可是如今從硬件和操做系統支持來看單臺服務器支持上萬併發鏈接已經沒有多少挑戰性了。編程
咱們先假設單臺服務器最多隻能支持萬級併發鏈接,其實對絕大多數應用來講已經遠遠足夠了,可是對於一些擁有很大用戶基數的互聯網公司,每每面臨的併發鏈接數是百萬,千萬,甚至騰訊的上億(注:QQ默認用的UDP協議)。服務器
雖然如今的集羣,分佈式技術能夠爲咱們將併發負載分擔在多臺服務器上,那咱們只須要擴展出數十臺電腦就能夠解決問題,可是咱們更但願能更大的挖掘單臺服務器的資源,先努力垂直擴展,再進行水平擴展,這樣能夠有效的節省服務器相關的開支(硬件資源,機房,運維,電力其實也是一筆不小的開支)。網絡
那麼到底一臺服務器可以支持多少TCP併發鏈接呢?併發
在linux下編寫網絡服務器程序的朋友確定都知道每個tcp鏈接都要佔一個文件描述符,一旦這個文件描述符使用完了,新的鏈接到來返回給咱們的錯誤是:運維
「Socket/File:Can't open so many files」tcp
這時你須要明白操做系統對能夠打開的最大文件數的限制。分佈式
ulimit -n
輸出 1024,說明對於一個進程而言最多隻能打開1024個文件,因此你要採用此默認配置最多也就能夠併發上千個TCP鏈接。ulimit -n 1000000
,可是這種臨時修改只對當前登陸用戶目前的使用環境有效,系統重啓或用戶退出後就會失效。重啓後失效的修改(不過我在CentOS 6.5下測試,重啓後未發現失效):編輯 /etc/security/limits.conf
文件, 修改後內容爲測試
ulimit -SHn 1000000
操作系統
執行 cat /proc/sys/fs/file-nr
輸出 9344 0 592026
,分別爲:
1.已經分配的文件句柄數
2.已經分配但沒有使用的文件句柄數
3.最大文件句柄數。
但在kernel 2.6版本中第二項的值總爲0,這並非一個錯誤,它實際上意味着已經分配的文件描述符無一浪費的都已經被使用了 。
咱們能夠把這個數值改大些,用 root 權限修改 /etc/sysctl.conf 文件:
fs.file-max = 1000000 net.ipv4.ip_conntrack_max = 1000000 net.ipv4.netfilter.ip_conntrack_max = 1000000
操做系統上端口號1024如下是系統保留的,從1024-65535是用戶使用的。
因爲每一個TCP鏈接都要佔一個端口號,因此咱們最多能夠有60000多個併發鏈接。我想有這種錯誤思路朋友不在少數吧?(其中我過去就一直這麼認爲)
咱們來分析一下吧
其實65535這個數字,只是決定了服務器端最多能夠擁有65535個Bind的Socket。
也就是說,最多能夠開65535個服務器進程,可是你要知道這個可以鏈接客戶端的數量沒有任何關係,Accept過來的Socket是不須要Bind任何IP地址的,也沒有端口占用這一說。做爲Server端的Socket自己只負責監聽和接受鏈接操做
{local ip, local port,remote ip,remote port}
。咱們做爲服務端實際只使用了bind時這一個端口,說明端口號65535並非併發量的限制。
不考慮地址重用(unix的SO_REUSEADDR選項)的狀況下,即便server端有多個ip,本地監聽端口也是獨佔的,所以server端tcp鏈接4元組中只有remote ip(也就是client ip)和remote port(客戶端port)是可變的,
所以最大tcp鏈接爲客戶端ip數×客戶端port數,對IPV4,不考慮ip地址分類等因素,最大tcp鏈接數約爲2的32次方(ip數)×2的16次方(port數),
也就是server端單機最大tcp鏈接數約爲2的48次方。
TCP連出受端口限制,連入僅受內存限制
上面給出的結論都是理論上的單機TCP併發鏈接數,實際上單機併發鏈接數確定要受硬件資源(內存)、網絡資源(帶寬)的限制。
對server端,經過增長內存、修改最大文件描述符個數等參數,單機最大併發TCP鏈接數超過10萬,甚至上百萬 是沒問題的,國外 Urban Airship 公司在產品環境中已作到 50 萬併發