有了Netty,你能夠實現本身的HTTP服務器,FTP服務器,UDP服務器,RPC服務器,WebSocket服務器,Redis的Proxy服務器,MySQL的Proxy服務器等等。 java
咱們回顧一下傳統的HTTP服務器的原理 api
一、建立一個ServerSocket,監聽並綁定一個端口數組
二、一系列客戶端來請求這個端口緩存
三、服務器使用Accept,得到一個來自客戶端的Socket鏈接對象 安全
四、啓動一個新線程處理鏈接 bash
4.一、讀Socket,獲得字節流服務器
4.二、解碼協議,獲得Http請求對象 網絡
4.三、處理Http請求,獲得一個結果,封裝成一個HttpResponse對象 多線程
4.四、編碼協議,將結果序列化字節流 寫Socket,將字節流發給客戶端 併發
五、繼續循環步驟3
HTTP服務器之因此稱爲HTTP服務器,是由於編碼解碼協議是HTTP協議,若是協議是Redis協議,那它就成了Redis服務器,若是協議是WebSocket,那它就成了WebSocket服務器,等等。 使用Netty你就能夠定製編解碼協議,實現本身的特定協議的服務器。
上面是一個傳統處理http的服務器,可是在高併發的環境下,線程數量會比較多,System load也會比較高,因而就有了NIO。
說NIO以前先說一下BIO(Blocking IO),如何理解這個Blocking呢?
傳統的BIO模式下,從頭至尾的全部線程都是阻塞的,這些線程就乾等着,佔用系統的資源,什麼事也不幹。
那麼NIO是怎麼作到非阻塞的呢。它用的是事件機制。它能夠用一個線程把Accept,讀寫操做,請求處理的邏輯全乾了。若是什麼事都沒得作,它也不會死循環,它會將線程休眠起來,直到下一個事件來了再繼續幹活,這樣的一個線程稱之爲NIO線程。用僞代碼表示:while true {
events = takeEvents(fds) // 獲取事件,若是沒有事件,線程就休眠
for event in events {
if event.isAcceptable {
doAccept() // 新連接來了
} elif event.isReadable {
request = doRead() // 讀消息
if request.isComplete() {
doProcess()
}
} elif event.isWriteable {
doWrite() // 寫消息
}
}
}複製代碼
Reactor單線程模型
一個NIO線程+一個accept線程:
Reactor多線程模型
Reactor主從模型
Netty能夠基於如上三種模型進行靈活的配置。
Netty是創建在NIO基礎之上,Netty在NIO之上又提供了更高層次的抽象。
在Netty裏面,Accept鏈接可使用單獨的線程池去處理,讀寫操做又是另外的線程池來處理。
Accept鏈接和讀寫操做也可使用同一個線程池來進行處理。而請求處理邏輯既可使用單獨的線程池進行處理,也能夠跟放在讀寫線程一塊處理。線程池中的每個線程都是NIO線程。用戶能夠根據實際狀況進行組裝,構造出知足系統需求的高性能併發模型。
若是不用netty,使用原生JDK的話,有以下問題:
而Netty來講,他的api簡單、性能高並且社區活躍(dubbo、rocketmq等都使用了它)
先看以下代碼,這個代碼是使用netty在client端重複寫100次數據給server端,ByteBuf是netty的一個字節容器,裏面存放是的須要發送的數據
public class FirstClientHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelActive(ChannelHandlerContext ctx) {
for (int i = 0; i < 1000; i++) {
ByteBuf buffer = getByteBuf(ctx);
ctx.channel().writeAndFlush(buffer);
}
}
private ByteBuf getByteBuf(ChannelHandlerContext ctx) {
byte[] bytes = "你好,個人名字是1234567!".getBytes(Charset.forName("utf-8"));
ByteBuf buffer = ctx.alloc().buffer();
buffer.writeBytes(bytes);
return buffer;
}
}複製代碼
從client端讀取到的數據爲:
從服務端的控制檯輸出能夠看出,存在三種類型的輸出
應用層面使用了Netty,可是對於操做系統來講,只認TCP協議,儘管咱們的應用層是按照 ByteBuf 爲 單位來發送數據,server按照Bytebuf讀取,可是到了底層操做系統仍然是按照字節流發送數據,所以,數據到了服務端,也是按照字節流的方式讀入,而後到了 Netty 應用層面,從新拼裝成 ByteBuf,而這裏的 ByteBuf 與客戶端按順序發送的 ByteBuf 多是不對等的。所以,咱們須要在客戶端根據自定義協議來組裝咱們應用層的數據包,而後在服務端根據咱們的應用層的協議來組裝數據包,這個過程一般在服務端稱爲拆包,而在客戶端稱爲粘包。
在沒有 Netty 的狀況下,用戶若是本身須要拆包,基本原理就是不斷從 TCP 緩衝區中讀取數據,每次讀取完都須要判斷是不是一個完整的數據包 若是當前讀取的數據不足以拼接成一個完整的業務數據包,那就保留該數據,繼續從 TCP 緩衝區中讀取,直到獲得一個完整的數據包。 若是當前讀到的數據加上已經讀取的數據足夠拼接成一個數據包,那就將已經讀取的數據拼接上本次讀取的數據,構成一個完整的業務數據包傳遞到業務邏輯,多餘的數據仍然保留,以便和下次讀到的數據嘗試拼接。
而在Netty中,已經造好了許多類型的拆包器,咱們直接用就好:
選好拆包器後,在代碼中client段和server端將拆包器加入到chanelPipeline之中就行了:
如上實例中:
客戶端:
ch.pipeline().addLast(new FixedLengthFrameDecoder(31));複製代碼
服務端:
ch.pipeline().addLast(new FixedLengthFrameDecoder(31));複製代碼
是在發送數據的時候,傳統的實現方式是:
1. `File.read(bytes)`
2. `Socket.send(bytes)`
這種方式須要四次數據拷貝和四次上下文切換:
1. 數據從磁盤讀取到內核的read buffer
2. 數據從內核緩衝區拷貝到用戶緩衝區明顯上面的第二步和第三步是沒有必要的,經過java的FileChannel.transferTo方法,能夠避免上面兩次多餘的拷貝(固然這須要底層操做系統支持)
Netty發送和接收消息主要使用bytebuffer,bytebuffer使用對外內存(DirectMemory)直接進行Socket讀寫。
以上就是我對Netty相關知識整理,若是有不一樣的看法,歡迎討論!