Tip:面試
2015 年 HTTP/2 標準發表後,大多數主流瀏覽器也於當年年末支持該標準。此後,憑藉着多路複用、頭部壓縮、服務器推送等優點,HTTP/2 獲得了愈來愈多知名互聯網公司的青睞。就在你們剛剛爲了解了 HTTP/2 新特性而舒口氣兒的時候,HTTP/3 卻又緊鑼密鼓地準備着了。今天就跟你們聊一聊這第三代 HTTP 技術。算法
在介紹 HTTP 以前,咱們先簡單看下 HTTP 的歷史,瞭解下 HTTP/3 出現的背景。 瀏覽器
TCP 一直是傳輸層中舉足輕重的協議,而 UDP 則默默無聞,在面試中問到 TCP 和 UDP 的區別時,有關 UDP 的回答經常寥寥幾語,長期以來 UDP 給人的印象就是一個很快但不可靠的傳輸層協議。但有時候從另外一個角度看,缺點可能也是優勢。QUIC(Quick UDP Internet Connections,快速 UDP 網絡鏈接) 基於 UDP,正是看中了 UDP 的速度與效率。同時 QUIC 也整合了 TCP、TLS 和 HTTP/2 的優勢,並加以優化。用一張圖能夠清晰地表示他們之間的關係。 緩存
那麼想了解 HTTP/3,QUIC 是繞不過去的,下面主要經過幾個重要的特性讓你們對 QUIC 有更深的理解。安全
用一張圖能夠形象地看出 HTTP/2 和 HTTP/3 創建鏈接的差異,如圖2-2 和圖2-3 所示。性能優化
HTTP/2 的鏈接須要 3 RTT,若是考慮會話複用,即把第一次握手算出來的對稱密鑰緩存起來,那麼也須要 2 RTT,更進一步的,若是 TLS 升級到 1.3,那麼 HTTP/2 鏈接須要 2 RTT,考慮會話複用則須要 1 RTT。有人會說 HTTP/2 不必定須要 HTTPS,握手過程還能夠簡化。這沒毛病,HTTP/2 的標準的確不須要基於 HTTPS,但實際上全部瀏覽器的實現都要求 HTTP/2 必須基於 HTTPS,因此 HTTP/2 的加密鏈接必不可少。而 HTTP/3 首次鏈接只須要 1 RTT,後面的鏈接更是隻需 0 RTT,意味着客戶端發給服務端的第一個包就帶有請求數據,這一點 HTTP/2 難以望其項背。那這背後是什麼原理呢?結合圖2-3,咱們具體看下 QUIC 的鏈接過程。服務器
Step1:首次鏈接時,客戶端發送 Inchoate Client Hello 給服務端,用於請求鏈接;微信
Step2:服務端生成 g、p、a,根據 g、p 和 a 算出 A,而後將 g、p、A 放到 Server Config 中再發送 Rejection 消息給客戶端;網絡
Step3:客戶端接收到 g、p、A 後,本身再生成 b,根據 g、p、b 算出 B,根據 A、p、b 算出初始密鑰 K。B 和 K 算好後,客戶端會用 K 加密 HTTP 數據,連同 B 一塊兒發送給服務端;性能
Step4:服務端接收到 B 後,根據 a、p、B 生成與客戶端一樣的密鑰,再用這密鑰解密收到的 HTTP 數據。爲了進一步的安全(前向安全性),服務端會更新本身的隨機數 a 和公鑰,再生成新的密鑰 S,而後把公鑰經過 Server Hello 發送給客戶端。連同 Server Hello 消息,還有 HTTP 返回數據;
Step5:客戶端收到 Server Hello 後,生成與服務端一致的新密鑰 S,後面的傳輸都使用 S 加密。
這樣,QUIC 從請求鏈接到正式接發 HTTP 數據一共花了 1 RTT,這 1 個 RTT 主要是爲了獲取 Server Config,後面的鏈接若是客戶端緩存了 Server Config,那麼就能夠直接發送 HTTP 數據,實現 0 RTT 創建鏈接。
QUIC 實現 0 RTT 的一個技術細節是使用了 DH密鑰交換算法。結合圖2-4 能夠更好地理解上面的過程。
TCP 鏈接基於四元組(源 IP、源端口、目的 IP、目的端口),切換網絡時至少會有一個因素髮生變化,致使鏈接發生變化。當鏈接發生變化時,若是還使用原來的 TCP 鏈接,則會致使鏈接失敗,就得等原來的鏈接超時後從新創建鏈接,因此咱們有時候發現切換到一個新網絡時,即便新網絡情況良好,但內容仍是須要加載好久。若是實現得好,當檢測到網絡變化時馬上創建新的 TCP 鏈接,即便這樣,創建新的鏈接仍是須要幾百毫秒的時間。
QUIC 的鏈接不受四元組的影響,當這四個元素髮生變化時,原鏈接依然維持。那這是怎麼作到的呢?道理很簡單,QUIC 鏈接不以四元組做爲標識,而是使用一個 64 位的隨機數,這個隨機數被稱爲 Connection ID,即便 IP 或者端口發生變化,只要 Connection ID 沒有變化,那麼鏈接依然能夠維持。
HTTP/1.1 和 HTTP/2 都存在隊頭阻塞問題(Head of line blocking),那什麼是隊頭阻塞呢?
TCP 是個面向鏈接的協議,即發送請求後須要收到 ACK 消息,以確認對方已接收到數據。若是每次請求都要在收到上次請求的 ACK 消息後再請求,那麼效率無疑很低,如圖2-5 所示。後 HTTP/1.1 提出了 Pipelining 技術,容許一個 TCP 鏈接同時發送多個請求,這樣就大大提高了傳輸效率,如圖2-6 所示。
HTTP/2 的多路複用解決了上述的隊頭阻塞問題。不像 HTTP/1.1 中只有上一個請求的全部數據包被傳輸完畢下一個請求的數據包才能夠被傳輸,HTTP/2 中每一個請求都被拆分紅多個 Frame 經過一條 TCP 鏈接同時被傳輸,這樣即便一個請求被阻塞,也不會影響其餘的請求。如圖2-8 所示,不一樣顏色表明不一樣的請求,相同顏色的色塊表明請求被切分的 Frame。
那 QUIC 是如何解決隊頭阻塞問題的呢?主要有兩點。
擁塞控制的目的是避免過多的數據一會兒涌入網絡,致使網絡超出最大負荷。QUIC 的擁塞控制與 TCP 相似,並在此基礎上作了改進。因此咱們先簡單介紹下 TCP 的擁塞控制。
TCP 擁塞控制由 4 個核心算法組成:慢啓動、擁塞避免、快速重傳和快速恢復,理解了這 4 個算法,對 TCP 的擁塞控制也就有了大概瞭解。
QUIC 從新實現了 TCP 協議的 Cubic 算法進行擁塞控制,並在此基礎上作了很多改進。下面介紹一些 QUIC 改進的擁塞控制的特性。
TCP 中若是要修改擁塞控制策略,須要在系統層面進行操做。QUIC 修改擁塞控制策略只須要在應用層操做,而且 QUIC 會根據不一樣的網絡環境、用戶來動態選擇擁塞控制算法。
TCP 爲了保證可靠性,使用 Sequence Number 和 ACK 來確認消息是否有序到達,但這樣的設計存在缺陷。
超時發生後客戶端發起重傳,後來接收到了 ACK 確認消息,但由於原始請求和重傳請求接收到的 ACK 消息同樣,因此客戶端就鬱悶了,不知道這個 ACK 對應的是原始請求仍是重傳請求。若是客戶端認爲是原始請求的 ACK,但其實是圖2-11 的情形,則計算的採樣 RTT 偏大;若是客戶端認爲是重傳請求的 ACK,但其實是圖2-12 的情形,又會致使採樣 RTT 偏小。圖中有幾個術語,RTO 是指超時重傳時間(Retransmission TimeOut),跟咱們熟悉的 RTT(Round Trip Time,往返時間)很長得很像。採樣 RTT 會影響 RTO 計算,超時時間的準確把握很重要,長了短了都不合適。
TCP 計算 RTT 時沒有考慮接收方接收到數據到發送確認消息之間的延遲,如圖2-15 所示,這段延遲即 ACK Delay。QUIC 考慮了這段延遲,使得 RTT 的計算更加準確。
通常來講,接收方收到發送方的消息後都應該發送一個 ACK 回覆,表示收到了數據。但每收到一個數據就返回一個 ACK 回覆太麻煩,因此通常不會當即回覆,而是接收到多個數據後再回復,TCP SACK 最多提供 3 個 ACK block。但有些場景下,好比下載,只須要服務器返回數據就好,但按照 TCP 的設計,每收到 3 個數據包就要「禮貌性」地返回一個 ACK。而 QUIC 最多能夠捎帶 256 個 ACK block。在丟包率比較嚴重的網絡下,更多的 ACK block 能夠減小重傳量,提高網絡效率。
TCP 會對每一個 TCP 鏈接進行流量控制,流量控制的意思是讓發送方不要發送太快,要讓接收方來得及接收,否則會致使數據溢出而丟失,TCP 的流量控制主要經過滑動窗口來實現的。能夠看出,擁塞控制主要是控制發送方的發送策略,但沒有考慮到接收方的接收能力,流量控制是對這部分能力的補齊。
QUIC 只須要創建一條鏈接,在這條鏈接上同時傳輸多條 Stream,比如有一條道路,兩頭分別有一個倉庫,道路中有不少車輛運送物資。QUIC 的流量控制有兩個級別:鏈接級別(Connection Level)和 Stream 級別(Stream Level),比如既要控制這條路的總流量,不要一會兒不少車輛涌進來,貨物來不及處理,也不能一個車輛一會兒運送不少貨物,這樣貨物也來不及處理。
那 QUIC 是怎麼實現流量控制的呢?咱們先看單條 Stream 的流量控制。Stream 還沒傳輸數據時,接收窗口(flow control receive window)就是最大接收窗口(flow control receive window),隨着接收方接收到數據後,接收窗口不斷縮小。在接收到的數據中,有的數據已被處理,而有的數據還沒來得及被處理。如圖2-16 所示,藍色塊表示已處理數據,黃色塊表示未處理數據,這部分數據的到來,使得 Stream 的接收窗口縮小。
隨着數據不斷被處理,接收方就有能力處理更多數據。當知足 (flow control receive offset - consumed bytes) < (max receive window / 2) 時,接收方會發送 WINDOW_UPDATE frame 告訴發送方你能夠再多發送些數據過來。這時 flow control receive offset 就會偏移,接收窗口增大,發送方能夠發送更多數據到接收方。
接收窗口(flow control receive window) = 最大接收窗口(max receive window) - 已接收數據(highest received byte offset)
,而對 Connection 來講:
接收窗口 = Stream1接收窗口 + Stream2接收窗口 + ... + StreamN接收窗口
。
由於不確認服務器是否支持 QUIC,因此須要經歷協商升級過程才能決定可以使用 QUIC。
首次請求時,客戶端會使用 HTTP/1.1 或者 HTTP/2,若是服務器支持 QUIC,則在響應的數據中返回 alt-svc 頭部,主要包含如下信息:
確認服務器支持 QUIC 以後,客戶端向服務端同時發起 QUIC 鏈接和 TCP 鏈接,比較兩個鏈接的速度,而後選擇較快的協議,這個過程叫「競速」,通常都是 QUIC 獲勝。
目前 Google、Gmail、QQ 會員等業務已經陸續使用 QUIC。本文主要側重介紹 QUIC 自己,也限於筆者這方面實踐經驗有限,QUIC 應用部分再也不詳述,你們能夠找相關實踐文章,好比這篇《讓互聯網更快的協議,QUIC在騰訊的實踐及性能優化》。
QUIC 丟掉了 TCP、TLS 的包袱,基於 UDP,並對 TCP、TLS、HTTP/2 的經驗加以借鑑、改進,實現了一個安全高效可靠的 HTTP 通訊協議。憑藉着零 RTT 創建鏈接、平滑的鏈接遷移、基本消除了隊頭阻塞、改進的擁塞控制和流量控制等優秀的特性,QUIC 在絕大多數場景下得到了比 HTTP/2 更好的效果,HTTP/3 將來可期。