在分佈式系統被普遍應用的今天,服務有可能分佈在網絡中的各個節點中。所以,服務之間的調用對分佈式系統來講,就顯得尤其重要。算法
對於高性能的 RPC 框架,Netty 做爲異步通訊框架,幾乎成爲必備品。例如,Dubbo 框架中通訊組件,還有 RocketMQ 中生產者和消費者的通訊,都使用了 Netty。今天,咱們來看看 Netty 的基本架構和原理。segmentfault
Netty 的特色與 NIO數組
Netty 是一個異步的、基於事件驅動的網絡應用框架,它能夠用來開發高性能服務端和客戶端。性能優化
之前編寫網絡調用程序的時候,咱們都會在客戶端建立一個 Socket,經過這個 Socket 鏈接到服務端。服務器
服務端根據這個 Socket 建立一個 Thread,用來發出請求。客戶端在發起調用之後,須要等待服務端處理完成,才能繼續後面的操做。這樣線程會出現等待的狀態。網絡
若是客戶端請求數越多,服務端建立的處理線程也會越多,JVM 如此多的線程並非一件容易的事。多線程
使用阻賽 I/O 處理多個鏈接
爲了解決上述的問題,推出了 NIO 的概念,也就是(Non-blocking I/O)。其中,Selector 機制就是 NIO 的核心。架構
當每次客戶端請求時,會建立一個 Socket Channel,並將其註冊到 Selector 上(多路複用器)。併發
而後,Selector 關注服務端 IO 讀寫事件,此時客戶端並不用等待 IO 事件完成,能夠繼續作接下來的工做。框架
一旦,服務端完成了 IO 讀寫操做,Selector 會接到通知,同時告訴客戶端 IO 操做已經完成。
接到通知的客戶端,就能夠經過 SocketChannel 獲取須要的數據了。
NIO 機制與 Selector
上面描述的過程有點異步的意思,不過,Selector 實現的並非真正意義上的異步操做。
由於 Selector 須要經過線程阻塞的方式監聽 IO 事件變動,只是這種方式沒有讓客戶端等待,是 Selector 在等待 IO 返回,而且通知客戶端去獲取數據。真正「異步 IO」(AIO)這裏不展開介紹,有興趣能夠自行查找。
說好了 NIO 再來談談 Netty,Netty 做爲 NIO 的實現,它適用於服務器/客戶端通信的場景,以及針對於 TCP 協議下的高併發應用。
對於開發者來講,它具備如下特色:
從一個簡單的例子開始
開篇講到了,爲了知足高併發下網絡請求,引入了 NIO 的概念。Netty 是針對 NIO 的實現,在 NIO 封裝,網絡調用,數據處理以及性能優化等方面都有不俗的表現。
學習架構最容易的方式就是從實例入手,從客戶端訪問服務端的代碼來看看 Netty 是如何運做的。再一次介紹代碼中調用的組件以及組件的工做原理。
假設有一個客戶端去調用一個服務端,假設服務端叫作 EchoServer,客戶端叫作 EchoClient,用 Netty 架構實現代碼以下。
服務端代碼
構建服務器端,假設服務器接受客戶端傳來的信息,而後在控制檯打印。首先,生成 EchoServer,在構造函數中傳入須要監聽的端口號
構造函數中傳入須要監聽的端口號
接下來就是服務的啓動方法:
啓動 NettyServer 的 Start 方法
Server 的啓動方法涉及到了一些組件的調用,例如 EventLoopGroup,Channel。這些會在後面詳細講解。
這裏有個大體的印象就好:
NettyServer 啓動之後會監聽某個端口的請求,當接受到了請求就須要處理了。在 Netty 中客戶端請求服務端,被稱爲「入站」操做。
能夠經過 ChannelInboundHandlerAdapter 實現,具體內容以下:
處理來自客戶端的請求
從上面的代碼能夠看出,服務端處理的代碼包含了三個方法。這三個方法都是根據事件觸發的。
他們分別是:
客戶端代碼
客戶端和服務端的代碼基本類似,在初始化時須要輸入服務端的 IP 和 Port。
一樣在客戶端啓動函數中包括如下內容:
客戶端啓動程序的順序:
客戶端在完成以上操做之後,會與服務端創建鏈接從而傳輸數據。一樣在接受到 Channel 中觸發的事件時,客戶端會觸發對應事件的操做。
例如 Channel 激活,客戶端接受到服務端的消息,或者發生異常的捕獲。
從代碼結構上看仍是比較簡單的。服務端和客戶端分別初始化建立監聽和鏈接。而後分別定義各自的 Handler 處理對方的請求。
服務端/客戶端初始化和事件處理
Netty 核心組件
經過上面的簡單例子,發現有些 Netty 組件在服務初始化以及通信時被用到,下面就來介紹一下這些組件的用途和關係。
①Channel
經過上面例子能夠看出,當客戶端和服務端鏈接的時候會創建一個 Channel。
這個 Channel 咱們能夠理解爲 Socket 鏈接,它負責基本的 IO 操做,例如:bind(),connect(),read(),write() 等等。
簡單的說,Channel 就是表明鏈接,實體之間的鏈接,程序之間的鏈接,文件之間的鏈接,設備之間的鏈接。同時它也是數據入站和出站的載體。
②EventLoop 和 EventLoopGroup
既然有了 Channel 鏈接服務,讓信息之間能夠流動。若是服務發出的消息稱做「出站」消息,服務接受的消息稱做「入站」消息。那麼消息的「出站」/「入站」就會產生事件(Event)。
例如:鏈接已激活;數據讀取;用戶事件;異常事件;打開連接;關閉連接等等。
順着這個思路往下想,有了數據,數據的流動產生事件,那麼就有一個機制去監控和協調事件。
這個機制(組件)就是 EventLoop。在 Netty 中每一個 Channel 都會被分配到一個 EventLoop。一個 EventLoop 能夠服務於多個 Channel。
每一個 EventLoop 會佔用一個 Thread,同時這個 Thread 會處理 EventLoop 上面發生的全部 IO 操做和事件(Netty 4.0)。
EventLoopGroup,EventLoop 和 Channel 的關係
在異步傳輸的狀況下,一個 EventLoop 是能夠處理多個 Channel 中產生的事件的,它主要的工做就是事件的發現以及通知。
相對於之前一個 Channel 就佔用一個 Thread 的狀況。Netty 的方式就要合理多了。
客戶端發送消息到服務端,EventLoop 發現之後會告訴服務端:「你去獲取消息」,同時客戶端進行其餘的工做。
當 EventLoop 檢測到服務端返回的消息,也會通知客戶端:「消息返回了,你去取吧「。客戶端再去獲取消息。整個過程 EventLoop 就是監視器+傳聲筒。
③ChannelHandler,ChannelPipeline 和 ChannelHandlerContext
若是說 EventLoop 是事件的通知者,那麼 ChannelHandler 就是事件的處理者。
在 ChannelHandler 中能夠添加一些業務代碼,例如數據轉換,邏輯運算等等。
正如上面例子中展現的,Server 和 Client 分別都有一個 ChannelHandler 來處理,讀取信息,網絡可用,網絡異常之類的信息。
而且,針對出站和入站的事件,有不一樣的 ChannelHandler,分別是:
假設每次請求都會觸發事件,而由 ChannelHandler 來處理這些事件,這個事件的處理順序是由 ChannelPipeline 來決定的。
ChannelHanlder 處理,出站/入站的事件
ChannelPipeline 爲 ChannelHandler 鏈提供了容器。到 Channel 被建立的時候,會被 Netty 框架自動分配到 ChannelPipeline 上。
ChannelPipeline 保證 ChannelHandler 按照必定順序處理事件,當事件觸發之後,會將數據經過 ChannelPipeline 按照必定的順序經過 ChannelHandler。
說白了,ChannelPipeline 是負責「排隊」的。這裏的「排隊」是處理事件的順序。
同時,ChannelPipeline 也能夠添加或者刪除 ChannelHandler,管理整個隊列。
如上圖,ChannelPipeline 使 ChannelHandler 按照前後順序排列,信息按照箭頭所示方向流動而且被 ChannelHandler 處理。
說完了 ChannelPipeline 和 ChannelHandler,前者管理後者的排列順序。那麼它們之間的關聯就由 ChannelHandlerContext 來表示了。
每當有 ChannelHandler 添加到 ChannelPipeline 時,同時會建立 ChannelHandlerContext 。
ChannelHandlerContext 的主要功能是管理 ChannelHandler 和 ChannelPipeline 的交互。
不知道你們注意到沒有,開始的例子中 ChannelHandler 中處理事件函數,傳入的參數就是 ChannelHandlerContext。
ChannelHandlerContext 參數貫穿 ChannelPipeline,將信息傳遞給每一個 ChannelHandler,是個合格的「通信員」。
ChannelHandlerContext 負責傳遞消息
把上面提到的幾個核心組件概括一下,用下圖表示方便記憶他們之間的關係。
Netty 核心組件關係圖
Netty 的數據容器
前面介紹了 Netty 的幾個核心組件,服務器在數據傳輸的時候,產生事件,而且對事件進行監控和處理。
接下來看看數據是如何存放以及是如何讀寫的。Netty 將 ByteBuf 做爲數據容器,來存放數據。
ByteBuf 工做原理
從結構上來講,ByteBuf 由一串字節數組構成。數組中每一個字節用來存放信息。
ByteBuf 提供了兩個索引,一個用於讀取數據,一個用於寫入數據。這兩個索引經過在字節數組中移動,來定位須要讀或者寫信息的位置。
當從 ByteBuf 讀取時,它的 readerIndex(讀索引)將會根據讀取的字節數遞增。
一樣,當寫 ByteBuf 時,它的 writerIndex 也會根據寫入的字節數進行遞增。
ByteBuf 讀寫索引圖例
須要注意的是極限的狀況是 readerIndex 恰好讀到了 writerIndex 寫入的地方。
若是 readerIndex 超過了 writerIndex 的時候,Netty 會拋出 IndexOutOf-BoundsException 異常。
ByteBuf 使用模式
談了 ByteBuf 的工做原理之後,再來看看它的使用模式。
根據存放緩衝區的不一樣分爲三類:
ByteBuf 的分配
聊完告終構和使用模式,再來看看 ByteBuf 是如何分配緩衝區的數據的。
Netty 提供了兩種 ByteBufAllocator 的實現,他們分別是:
對象池化的技術和線程池,比較類似,主要目的是提升內存的使用率。池化的簡單實現思路,是在 JVM 堆內存上構建一層內存池,經過 allocate 方法獲取內存池中的空間,經過 release 方法將空間歸還給內存池。
對象的生成和銷燬,會大量地調用 allocate 和 release 方法,所以內存池面臨碎片空間回收的問題,在頻繁申請和釋放空間後,內存池須要保證連續的內存空間,用於對象的分配。
基於這個需求,有兩種算法用於優化這一塊的內存分配:夥伴系統和 slab 系統。
夥伴系統,用徹底二叉樹管理內存區域,左右節點互爲夥伴,每一個節點表明一個內存塊。內存分配將大塊內存不斷二分,直到找到知足所需的最小內存分片。
內存釋放會判斷釋放內存分片的夥伴(左右節點)是否空閒,若是空閒則將左右節點合成更大塊內存。
slab 系統,主要解決內存碎片問題,將大塊內存按照必定內存大小進行等分,造成相等大小的內存片構成的內存集。
按照內存申請空間的大小,申請儘可能小塊內存或者其整數倍的內存,釋放內存時,也是將內存分片歸還給內存集。
Netty 內存池管理以 Allocate 對象的形式出現。一個 Allocate 對象由多個 Arena 組成,每一個 Arena 能執行內存塊的分配和回收。
Arena 內有三類內存塊管理單元:
Tiny 和 Small 符合 Slab 系統的管理策略,ChunkList 符合夥伴系統的管理策略。
當用戶申請內存介於 tinySize 和 smallSize 之間時,從 tinySubPage 中獲取內存塊。
申請內存介於 smallSize 和 pageSize 之間時,從 smallSubPage 中獲取內存塊;介於 pageSize 和 chunkSize 之間時,從 ChunkList 中獲取內存;大於 ChunkSize(不知道分配內存的大小)的內存塊不經過池化分配。
Netty 的 Bootstrap
說完了 Netty 的核心組件以及數據存儲。再回到最開始的例子程序,在程序最開始的時候會 new 一個 Bootstrap 對象,後面全部的配置都是基於這個對象展開的。
生成 Bootstrap 對象
Bootstrap 的做用就是將 Netty 核心組件配置到程序中,而且讓他們運行起來。
從 Bootstrap 的繼承結構來看,分爲兩類分別是 Bootstrap 和 ServerBootstrap,一個對應客戶端的引導,另外一個對應服務端的引導。
支持客戶端和服務端的程序引導
客戶端引導 Bootstrap,主要有兩個方法 bind() 和 connect()。Bootstrap 經過 bind() 方法建立一個 Channel。
在 bind() 以後,經過調用 connect() 方法來建立 Channel 鏈接。
Bootstrap 經過 bind 和 connect 方法建立鏈接
服務端引導 ServerBootstrap,與客戶端不一樣的是在 Bind() 方法以後會建立一個 ServerChannel,它不只會建立新的 Channel 還會管理已經存在的 Channel。
ServerBootstrap 經過 bind 方法建立/管理鏈接
經過上面的描述,服務端和客戶端的引導存在兩個區別:
ServerBootstrap 有兩組 EventLoopGroup
總結
咱們從 NIO 入手,談到了 Selector 的核心機制。而後經過介紹 Netty 客戶端和服務端源代碼運行流程,讓你們對 Netty 編寫代碼有基本的認識。
在 Netty 的核心組件中,Channel 提供 Socket 的鏈接通道,EventLoop 會對應 Channel 監聽其產生的事件,而且通知執行者。EventloopGroup 的容器,負責生成和管理 EventLoop。
ChannelPipeline 做爲 ChannelHandler 的容器會綁定到 Channel 上,而後由 ChannelHandler 提供具體事件處理。另外,ChannelHandlerContext 爲 ChannelHandler 和 ChannelPipeline 提供信息共享。
ByteBuf 做爲 Netty 的數據容器,經過字節數組的方式存儲數據,而且經過讀索引和寫索引來引導讀寫操做。
上述的核心組件都是經過 Bootstrap 來配置而且引導啓動的,Bootstrap 啓動方式雖然一致,可是針對客戶端和服務端有些許的區別。