http2.0與http1.X的區別

此文只是方便重看,原文在:http://www.mamicode.com/info-detail-1199706.html

1.1 HTTP應用場景

http誕生之初主要是應用於web端內容獲取,那時候內容還不像如今這樣豐富,排版也沒那麼精美,用戶交互的場景幾乎沒有。對於這種簡單的獲取網頁內容的場景,http表現得還算不錯。但隨着互聯網的發展和web2.0的誕生,更多的內容開始被展現(更多的圖片文件),排版變得更精美(更多的css),更復雜的交互也被引入(更多的js)。用戶打開一個網站首頁所加載的數據總量和請求的個數也在不斷增長。今天絕大部分的門戶網站首頁大小都會超過2M,請求數量能夠多達100個。另外一個普遍的應用是在移動互聯網的客戶端app,不一樣性質的app對http的使用差別很大。對於電商類app,加載首頁的請求也可能多達10多個。對於微信這類IM,http請求可能僅限於語音和圖片文件的下載,請求出現的頻率並不算高。javascript

1.2 由於延遲,因此慢

影響一個網絡請求的因素主要有兩個,帶寬和延遲。今天的網絡基礎建設已經使得帶寬獲得極大的提高,大部分時候都是延遲在影響響應速度。http1.0被抱怨最多的就是鏈接沒法複用,和head of line blocking這兩個問題。理解這兩個問題有一個十分重要的前提:客戶端是依據域名來向服務器創建鏈接,通常PC端瀏覽器會針對單個域名的server同時創建6~8個鏈接,手機端的鏈接數則通常控制在4~6個。顯然鏈接數並非越多越好,資源開銷和總體延遲都會隨之增大。css

鏈接沒法複用會致使每次請求都經歷三次握手和慢啓動。三次握手在高延遲的場景下影響較明顯,慢啓動則對文件類大請求影響較大。html

head of line blocking會致使帶寬沒法被充分利用,以及後續健康請求被阻塞。假設有5個請求同時發出,以下圖:java

[圖1] 技術分享git

對於http1.0的實現,在第一個請求沒有收到回覆以前,後續從應用層發出的請求只能排隊,請求2,3,4,5只能等請求1的response回來以後才能逐個發出。網絡通暢的時候性能影響不大,一旦請求1的request由於什麼緣由沒有抵達服務器,或者response由於網絡阻塞沒有及時返回,影響的就是全部後續請求,問題就變得比較嚴重了。github

 

2. 開拓者SPDY

 

http1.0和1.1雖然存在這麼多問題,業界也想出了各類優化的手段,但這些方法手段都是在嘗試繞開協議自己的缺陷,都有種隔靴搔癢,治標不治本的感受。直到2012年google如一聲驚雷提出了SPDY的方案,你們纔開始從正面看待和解決老版本http協議自己的問題,這也直接加速了http2.0的誕生。實際上,http2.0是以SPDY爲原型進行討論和標準化的。爲了給http2.0讓路,google已決定在2016年再也不繼續支持SPDY開發,但在http2.0出生以前,SPDY已經有了至關規模的應用,做爲一個過渡方案恐怕在還將一段時間內繼續存在。如今很多app客戶端和server都已經使用了SPDY來提高體驗,http2.0在老的設備和系統上還沒法使用(iOS系統只有在iOS9+上才支持),因此能夠預見將來幾年spdy將和http2.0共同服務的狀況。web

2.1 SPDY的目標

SPDY的目標在一開始就是瞄準http1.x的痛點,即延遲和安全性。咱們上面通篇都在討論延遲,至於安全性,因爲http是明文協議,其安全性也一直被業界詬病,不過這是另外一個大的話題。若是以下降延遲爲目標,應用層的http和傳輸層的tcp都是都有調整的空間,不過tcp做爲更底層協議存在已達數十年之久,其實現已深植全球的網絡基礎設施當中,若是要動必然傷經動骨,業界響應度必然不高,因此SPDY的手術刀對準的是http。算法

  • 下降延遲,客戶端的單鏈接單請求,server的FIFO響應隊列都是延遲的大頭。
  • http最初設計都是客戶端發起請求,而後server響應,server沒法主動push內容到客戶端。
  • 壓縮http header,http1.x的header愈來愈膨脹,cookie和user agent很容易讓header的size增至1kb大小,甚至更多。並且因爲http的無狀態特性,header必須每次request都重複攜帶,很浪費流量。

爲了增長業界響應的可能性,聰明的google一開始就避開了從傳輸層動手,並且打算利用開源社區的力量以提升擴散的力度,對於協議使用者來講,也只須要在請求的header裏設置user agent,而後在server端作好支持便可,極大的下降了部署的難度。SPDY的設計以下:chrome

[圖6]瀏覽器

技術分享

SPDY位於HTTP之下,TCP和SSL之上,這樣能夠輕鬆兼容老版本的HTTP協議(將http1.x的內容封裝成一種新的frame格式),同時可使用已有的SSL功能。SPDY的功能能夠分爲基礎功能和高級功能兩部分,基礎功能默認啓用,高級功能須要手動啓用。

SPDY基礎功能

  • 多路複用(multiplexing)。多路複用經過多個請求stream共享一個tcp鏈接的方式,解決了http1.x holb(head of line blocking)的問題,下降了延遲同時提升了帶寬的利用率。
  • 請求優先級(request prioritization)。多路複用帶來一個新的問題是,在鏈接共享的基礎之上有可能會致使關鍵請求被阻塞。SPDY容許給每一個request設置優先級,這樣重要的請求就會優先獲得響應。好比瀏覽器加載首頁,首頁的html內容應該優先展現,以後纔是各類靜態資源文件,腳本文件等加載,這樣能夠保證用戶能第一時間看到網頁內容。
  • header壓縮。前面提到過幾回http1.x的header不少時候都是重複多餘的。選擇合適的壓縮算法能夠減少包的大小和數量。SPDY對header的壓縮率能夠達到80%以上,低帶寬環境下效果很大。

SPDY高級功能

  • server推送(server push)。http1.x只能由客戶端發起請求,而後服務器被動的發送response。開啓server push以後,server經過X-Associated-Content header(X-開頭的header都屬於非標準的,自定義header)告知客戶端會有新的內容推送過來。在用戶第一次打開網站首頁的時候,server將資源主動推送過來能夠極大的提高用戶體驗。
  • server暗示(server hint)。和server push不一樣的是,server hint並不會主動推送內容,只是告訴有新的內容產生,內容的下載仍是須要客戶端主動發起請求。server hint經過X-Subresources header來通知,通常應用場景是客戶端須要先查詢server狀態,而後再下載資源,能夠節約一次查詢請求。

2.2 SPDY的成績

SPDY的成績能夠用google官方的一個數字來講明:頁面加載時間相比於http1.x減小了64%。並且各大瀏覽器廠商在SPDY誕生以後的1年多裏都陸續支持了SPDY,很多大廠app和server端框架也都將SPDY應用到了線上的產品當中。

google的官網也給出了他們本身作的一份測試數據。測試對象是25個訪問量排名靠前的網站首頁,家用網絡%1的丟包率,每一個網站測試10次取平均值。結果以下:

[圖7]

技術分享

不開啓ssl的時候提高在 27% - 60%,開啓以後爲39% - 55%。 這份測試結果有兩點值得特別注意:

鏈接數的選擇

鏈接究竟是基於域名來創建,仍是不作區分全部子域名都共享一個鏈接,這個策略選擇上值得商榷。google的測試結果測試了兩種方案,看結果彷佛是單一鏈接性能高於多域名鏈接方式。之因此出現這種狀況是因爲網頁全部的資源請求並非同一時間發出,後續發出的子域名請求若是能複用以前的tcp鏈接固然性能更好。實際應用場景下應該也是單鏈接共享模式表現好。

帶寬的影響

測試基於兩種帶寬環境,一慢一快。網速快的環境下對減少延遲的提高更大,單鏈接模式下能夠提高至60%。緣由也比較簡單,帶寬越大,複用鏈接的請求完成越快,因爲三次握手和慢啓動致使的延遲損耗就變得更明顯。

出了鏈接模式和帶寬以外,丟包率和RTT也是須要測試的參數。SPDY對header的壓縮有80%以上,總體包大小能減小大概40%,發送的包越少,天然受丟包率影響也就越小,因此丟包率大的惡劣環境下SPDY反而更能提高體驗。下圖是受丟包率影響的測試結果,丟包率超過2.5%以後就沒有提高了:

[圖8]

技術分享

RTT越大,延遲會越大,在高RTT的場景下,因爲SPDY的request是併發進行的,全部對包的利用率更高,反而能更明顯的減少整體延遲。測試結果以下:

[圖9]

技術分享

SPDY從2012年誕生到2016中止維護,時間跨度對於網絡協議來講其實很是之短。若是HTTP2.0沒有出來,google或許能收集到更多業界產品的真實反饋和數據,畢竟google本身的測試環境相對簡單。但SPDY也完成了本身的使命,做爲一向扮演拓荒者角色的google應該也早就預見了這樣的結局。SPDY對產品網絡體驗的提高到底如何,恐怕只有各大廠產品經理才清楚了。

3. 救世主HTTP2.0

SPDY的誕生和表現說明了兩件事情:一是在現有互聯網設施基礎和http協議普遍使用的前提下,是能夠經過修改協議層來優化http1.x的。二是針對http1.x的修改確實效果明顯並且業界反饋很好。正是這兩點讓IETF(Internet Enginerring Task Force)開始正式考慮制定HTTP2.0的計劃,最後決定以SPDY/3爲藍圖起草HTTP2.0,SPDY的部分設計人員也被邀請參與了HTTP2.0的設計。

3.1 HTTP2.0須要考慮的問題

HTTP2.0與SPDY的起點不一樣,SPDY能夠說是google的「玩具」,最先出如今自家的chrome瀏覽器和server上,好很差玩以及別人會不會跟着一塊兒玩對google來講無關痛癢。但HTTP2.0做爲業界標準還沒出生就是衆人矚目的焦點,一開始若是有什麼瑕疵或者不兼容的問題影響可能又是數十年之久,因此考慮的問題和角度要很是之廣。咱們來看下HTTP2.0一些重要的設計前提:

  • 客戶端向server發送request這種基本模型不會變。
  • 老的scheme不會變,使用http://和https://的服務和應用不會要作任何更改,不會有http2://。
  • 使用http1.x的客戶端和服務器能夠無縫的經過代理方式轉接到http2.0上。
  • 不識別http2.0的代理服務器能夠將請求降級到http1.x。

由於客戶端和server之間在確立使用http1.x仍是http2.0以前,必需要要確認對方是否支持http2.0,因此這裏必需要有個協商的過程。最簡單的協商也要有一問一答,客戶端問server答,即便這種最簡單的方式也多了一個RTT的延遲,咱們之因此要修改http1.x就是爲了下降延遲,顯然這個RTT咱們是沒法接受的。google制定SPDY的時候也遇到了這個問題,他們的辦法是強制SPDY走https,在SSL層完成這個協商過程。ssl層的協商在http協議通訊以前,因此是最適合的載體。google爲此作了一個tls的拓展,叫NPN(Next Protocol Negotiation),從名字上也能夠看出,這個拓展主要目的就是爲了協商下一個要使用的協議。HTTP2.0雖然也採用了相同的方式,不過HTTP2.0通過激烈的討論,最終仍是沒有強制HTTP2.0要走ssl層,大部分瀏覽器廠商(除了IE)卻只實現了基於https的2.0協議。HTTP2.0沒有使用NPN,而是另外一個tls的拓展叫ALPN(Application Layer Protocol Negotiation)。SPDY也打算從NPN遷移到ALPN了。

各瀏覽器(除了IE)之因此只實現了基於SSL的HTTP2.0,另外一個緣由是走SSL請求的成功率會更高,被SSL封裝的request不會被監聽和修改,這樣網絡中間的網絡設備就沒法基於http1.x的認知去幹涉修改request,http2.0的request若是被意外的修改,請求的成功率天然會降低。

HTTP2.0協議沒有強制使用SSL是由於聽到了不少的反對聲音,畢竟https和http相比,在不優化的前提下性能差了很多,要把https優化到幾乎不增長延遲的程度又須要花費很多力氣。IETF面對這種兩難的處境作了妥協,但大部分瀏覽器廠商(除了IE)並不買賬,他們只認https2.0。對於app開發者來講,他們能夠堅持使用沒有ssl的http2.0,不過要承擔一個多餘的RTT延遲和請求可能被破壞的代價。

3.1 HTTP2.0主要改動

HTTP2.0做爲新版協議,改動細節必然不少,不過對應用開發者和服務提供商來講,影響較大的就幾點。

新的二進制格式(Binary Format)

http1.x誕生的時候是明文協議,其格式由三部分組成:start line(request line或者status line),header,body。要識別這3部分就要作協議解析,http1.x的解析是基於文本。基於文本協議的格式解析存在自然缺陷,文本的表現形式有多樣性,要作到健壯性考慮的場景必然不少,二進制則不一樣,只認0和1的組合。基於這種考慮http2.0的協議解析決定採用二進制格式,實現方便且健壯。

有人可能會以爲基於文本的http調試方便不少,像firebug,chrome,charles等很多工具均可以即時調試修改請求。實際上如今不少請求都是走https了,要調試https請求必須有私鑰才行。http2.0的絕大部分request應該都是走https,因此調試方便沒法做爲一個有力的考慮因素了。curl,tcpdump,wireshark這些工具會更適合http2.0的調試。

http2.0用binary格式定義了一個一個的frame,和http1.x的格式對好比下圖:

[圖10]

技術分享

http2.0的格式定義更接近tcp層的方式,這張二機制的方式十分高效且精簡。length定義了整個frame的開始到結束,type定義frame的類型(一共10種),flags用bit位定義一些重要的參數,stream id用做流控制,剩下的payload就是request的正文了。

雖然看上去協議的格式和http1.x徹底不一樣了,實際上http2.0並無改變http1.x的語義,只是把原來http1.x的header和body部分用frame從新封裝了一層而已。調試的時候瀏覽器甚至會把http2.0的frame自動還原成http1.x的格式。具體的協議關係能夠用下圖表示:

[圖11]

技術分享

鏈接共享

http2.0要解決的一大難題就是多路複用(MultiPlexing),即鏈接共享。上面協議解析中提到的stream id就是用做鏈接共享機制的。一個request對應一個stream並分配一個id,這樣一個鏈接上能夠有多個stream,每一個stream的frame能夠隨機的混雜在一塊兒,接收方能夠根據stream id將frame再歸屬到各自不一樣的request裏面。

前面還提到過鏈接共享以後,須要優先級和請求依賴的機制配合才能解決關鍵請求被阻塞的問題。http2.0裏的每一個stream均可以設置又優先級(Priority)和依賴(Dependency)。優先級高的stream會被server優先處理和返回給客戶端,stream還能夠依賴其它的sub streams。優先級和依賴都是能夠動態調整的。動態調整在有些場景下頗有用,假想用戶在用你的app瀏覽商品的時候,快速的滑動到了商品列表的底部,但前面的請求先發出,若是不把後面的請求優先級設高,用戶當前瀏覽的圖片要到最後才能下載完成,顯然體驗沒有設置優先級好。同理依賴在有些場景下也有妙用。

header壓縮

前面提到過http1.x的header因爲cookie和user agent很容易膨脹,並且每次都要重複發送。http2.0使用encoder來減小須要傳輸的header大小,通信雙方各自cache一份header fields表,既避免了重複header的傳輸,又減少了須要傳輸的大小。高效的壓縮算法能夠很大的壓縮header,減小發送包的數量從而下降延遲。

這裏普及一個小知識點。如今你們都知道tcp有slow start的特性,三次握手以後開始發送tcp segment,第一次能發送的沒有被ack的segment數量是由initial tcp window大小決定的。這個initial tcp window根據平臺的實現會有差別,但通常是2個segment或者是4k的大小(一個segment大概是1500個字節),也就是說當你發送的包大小超過這個值的時候,要等前面的包被ack以後才能發送後續的包,顯然這種狀況下延遲更高。intial window也並非越大越好,太大會致使網絡節點的阻塞,丟包率就會增長,具體細節能夠參考IETF這篇文章。http的header如今膨脹到有可能會超過這個intial window的值了,因此更顯得壓縮header的重要性。

壓縮算法的選擇

SPDY/2使用的是gzip壓縮算法,但後來出現的兩種攻擊方式BREACHCRIME使得即便走ssl的SPDY也能夠被破解內容,最後綜合考慮採用的是一種叫HPACK的壓縮算法。這兩個漏洞和相關算法能夠點擊連接查看更多的細節,不過這種漏洞主要存在於瀏覽器端,由於須要經過javascript來注入內容並觀察payload的變化。

重置鏈接表現更好

不少app客戶端都有取消圖片下載的功能場景,對於http1.x來講,是經過設置tcp segment裏的reset flag來通知對端關閉鏈接的。這種方式會直接斷開鏈接,下次再發請求就必須從新創建鏈接。http2.0引入RST_STREAM類型的frame,能夠在不斷開鏈接的前提下取消某個request的stream,表現更好。

Server Push

Server Push的功能前面已經提到過,http2.0能經過push的方式將客戶端須要的內容預先推送過去,因此也叫「cache push」。另外有一點值得注意的是,客戶端若是退出某個業務場景,出於流量或者其它因素須要取消server push,也能夠經過發送RST_STREAM類型的frame來作到。

流量控制(Flow Control)

TCP協議經過sliding window的算法來作流量控制。發送方有個sending window,接收方有receive window。http2.0的flow control是相似receive window的作法,數據的接收方經過告知對方本身的flow window大小代表本身還能接收多少數據。只有Data類型的frame纔有flow control的功能。對於flow control,若是接收方在flow window爲零的狀況下依然更多的frame,則會返回block類型的frame,這張場景通常代表http2.0的部署出了問題。

Nagle Algorithm vs TCP Delayed Ack

tcp協議優化的一個經典場景是:Nagle算法Berkeley的delayed ack算法的對立。http2.0並無對tcp層作任何修改,因此這種對立致使的高延遲問題依然存在。要麼經過TCP_NODELAY禁用Nagle算法,要麼經過TCP_QUICKACK禁用delayed ack算法。貌似http2.0官方建議是設置TCP_NODELAY。

更安全的SSL

HTTP2.0使用了tls的拓展ALPN來作協議升級,除此以外加密這塊還有一個改動,HTTP2.0對tls的安全性作了近一步增強,經過黑名單機制禁用了幾百種再也不安全的加密算法,一些加密算法可能還在被繼續使用。若是在ssl協商過程中,客戶端和server的cipher suite沒有交集,直接就會致使協商失敗,從而請求失敗。在server端部署http2.0的時候要特別注意這一點。

3.2 HTTP2.0裏的負能量

SPDY和HTTP2.0之間的曖昧關係,以及google做爲SPDY的創造者,這兩點很容易讓陰謀論者懷疑google是否會成爲協議的最終收益方。這實際上是廢話,google固然會受益,任何新協議使用者都會從中受益,至於誰吃肉,誰喝湯看的是本身的本事。從整個協議的變遷史也能夠粗略看出,新協議的誕生徹底是針對業界現存問題對症下藥,並無google業務相關的痕跡存在,google至始至終只扮演了一個角色:you can you up。

HTTP2.0不會是萬金油,但抹了也不會有反作用。HTTP2.0最大的亮點在於多路複用,而多路複用的好處只有在http請求量大的場景下才明顯,因此有人會以爲只適用於瀏覽器瀏覽大型站點的時候。這麼說其實沒錯,但http2.0的好處不只僅是multiplexing,請求壓縮,優先級控制,server push等等都是亮點。對於內容型移動端app來講,好比淘寶app,http請求量大,多路複用仍是能產生明顯的體驗提高。多路複用對延遲的改變能夠參考下這個測試網址

HTTP2.0對於ssl的依賴使得有些開發者望而生畏。很多開發者對ssl還停留在高延遲,CPU性能損耗,配置麻煩的印象中。其實ssl於http結合對性能的影響已經能夠優化到忽略的程度了,網上也有很多文章能夠參考。HTTP2.0也能夠不走ssl,有些場景確實可能不適合https,好比對代理服務器的cache依賴,對於內容安全性不敏感的get請求能夠經過代理服務器緩存來優化體驗。

3.3 HTTP2.0的現狀

HTTP2.0做爲新版本的網絡協議確定須要一段時間去普及,但HTTP自己屬於應用層協議,和當年的網絡層協議IPV6不一樣,離底層協議越遠,對網絡基礎硬件設施的影響就越小。HTTP2.0甚至還特地的考慮了與HTTP1.x的兼容問題,只是在HTTP1.x的下面作了一層framing layer,更使得其普及的阻力變小。因此不出意外,HTTP2.0的普及速度可能會遠超大部分人的預期。

Firefox 2015年在其瀏覽器流量中檢測到,有13%的http流量已經使用了http2.0,27%的https也是http2.0,並且還處於持續的增加當中。通常用戶察覺不到是否使用了http2.0,不過能夠裝這樣一個插件,安裝以後若是網站是http2.0的,在地址欄的最右邊會有個閃電圖標。還可使用這個網站來測試。對於開發者來講,能夠經過Web Developer的Network來查看協議細節,以下圖:

[圖12]

技術分享

其中Version:HTTP/2.0已經很明確代表協議類型,Firefox還在header裏面插入了X-Firefox-Spdy:「h2」,也能夠看出是否使用http2.0。

Chrome在2015年檢測到的http2.0流量大概有18%。不過這個數字原本會更高,由於Chrome如今很大一部分流量都在試驗QUIC(google正在開闢的另外一塊疆土)。Chrome上也可使用相似的插件來判斷網站是不是使用http2.0。

相關文章
相關標籤/搜索