I/O( INPUT OUTPUT),包括文件I/O、網絡I/O。java
計算機世界裏的速度鄙視:編程
CPU 處理數據的速度遠大於I/O準備數據的速度 。服務器
任何編程語言都會遇到這種CPU處理速度和I/O速度不匹配的問題!網絡
在網絡編程中如何進行網絡I/O優化:怎麼高效地利用CPU進行網絡數據處理???數據結構
從操做系統層面怎麼理解網絡I/O呢?計算機的世界有一套本身定義的概念。若是不明白這些概念,就沒法真正明白技術的設計思路和本質。因此在我看來,這些概念是瞭解技術和計算機世界的基礎。併發
理解網絡I/O避不開的話題:同步與異步,阻塞與非阻塞。異步
拿山治燒水舉例來講,(山治的行爲比如用戶程序,燒水比如內核提供的系統調用),這兩組概念翻譯成大白話能夠這麼理解。socket
點火後,傻等,不等到水開堅定不幹任何事(阻塞),水開了關火(同步)。編程語言
點火後,去看電視(非阻塞),時不時看水開了沒有,水開後關火(同步)。ide
按下開關後,傻等水開(阻塞),水開後自動斷電(異步)。
網絡編程中不存在的模型。
按下開關後,該幹嗎幹嗎 (非阻塞),水開後自動斷電(異步)。
用戶態和內核態的切換耗時,費資源(內存、CPU)
優化建議:
網絡編程都須要知道FD??? FD是個什麼鬼???
Linux:萬物都是文件,FD就是文件的引用。像不像JAVA中萬物都是對象?程序中操做的是對象的引用。JAVA中建立對象的個數有內存的限制,一樣FD的個數也是有限制的。
Linux在處理文件和網絡鏈接時,都須要打開和關閉FD。
每一個進程都會有默認的FD:
怎麼優化呢?
對於一次I/O訪問(以read舉例),數據會先被拷貝到操做系統內核的緩衝區,而後纔會從操做系統內核的緩衝區拷貝到應用程序的地址空間。
因此說,當一個read操做發生時,它會經歷兩個階段:
正是由於這兩個階段,Linux系統升級迭代中出現了下面三種網絡模式的解決方案。
簡介:最原始的網絡I/O模型。進程會一直阻塞,直到數據拷貝完成。
缺點:高併發時,服務端與客戶端對等鏈接,線程多帶來的問題:
public static void main(String[] args) throws IOException { ServerSocket ss = new ServerSocket(); ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); int idx =0; while (true) { final Socket socket = ss.accept();//阻塞方法 new Thread(() -> { handle(socket); },"線程["+idx+"]" ).start(); } } static void handle(Socket socket) { byte[] bytes = new byte[1024]; try { String serverMsg = " server sss[ 線程:"+ Thread.currentThread().getName() +"]"; socket.getOutputStream().write(serverMsg.getBytes());//阻塞方法 socket.getOutputStream().flush(); } catch (Exception e) { e.printStackTrace(); } }
簡介:進程反覆系統調用,並立刻返回結果。
缺點:當進程有1000fds,表明用戶進程輪詢發生系統調用1000次kernel,來回的用戶態和內核態的切換,成本幾何上升。
public static void main(String[] args) throws IOException { ServerSocketChannel ss = ServerSocketChannel.open(); ss.bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); System.out.println(" NIO server started ... "); ss.configureBlocking(false); int idx =0; while (true) { final SocketChannel socket = ss.accept();//阻塞方法 new Thread(() -> { handle(socket); },"線程["+idx+"]" ).start(); } } static void handle(SocketChannel socket) { try { socket.configureBlocking(false); ByteBuffer byteBuffer = ByteBuffer.allocate(1024); socket.read(byteBuffer); byteBuffer.flip(); System.out.println("請求:" + new String(byteBuffer.array())); String resp = "服務器響應"; byteBuffer.get(resp.getBytes()); socket.write(byteBuffer); } catch (IOException e) { e.printStackTrace(); } }
簡介:單個線程就能夠同時處理多個網絡鏈接。內核負責輪詢全部socket,當某個socket有數據到達了,就通知用戶進程。多路複用在Linux內核代碼迭代過程當中依次支持了三種調用,即SELECT、POLL、EPOLL三種多路複用的網絡I/O模型。下文將畫圖結合Java代碼解釋。
簡介:有鏈接請求抵達了再檢查處理。
缺點:
服務端的select 就像一塊佈滿插口的插排,client端的鏈接連上其中一個插口,創建了一個通道,而後再在通道依次註冊讀寫事件。一個就緒、讀或寫事件處理時必定記得刪除,要不下次還能處理。
public static void main(String[] args) throws IOException { ServerSocketChannel ssc = ServerSocketChannel.open();//管道型ServerSocket ssc.socket().bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); ssc.configureBlocking(false);//設置非阻塞 System.out.println(" NIO single server started, listening on :" + ssc.getLocalAddress()); Selector selector = Selector.open(); ssc.register(selector, SelectionKey.OP_ACCEPT);//在創建好的管道上,註冊關心的事件 就緒 while(true) { selector.select(); Set<SelectionKey> keys = selector.selectedKeys(); Iterator<SelectionKey> it = keys.iterator(); while(it.hasNext()) { SelectionKey key = it.next(); it.remove();//處理的事件,必須刪除 handle(key); } } } private static void handle(SelectionKey key) throws IOException { if(key.isAcceptable()) { ServerSocketChannel ssc = (ServerSocketChannel) key.channel(); SocketChannel sc = ssc.accept(); sc.configureBlocking(false);//設置非阻塞 sc.register(key.selector(), SelectionKey.OP_READ );//在創建好的管道上,註冊關心的事件 可讀 } else if (key.isReadable()) { //flip SocketChannel sc = null; sc = (SocketChannel)key.channel(); ByteBuffer buffer = ByteBuffer.allocate(512); buffer.clear(); int len = sc.read(buffer); if(len != -1) { System.out.println("[" +Thread.currentThread().getName()+"] recv :"+ new String(buffer.array(), 0, len)); } ByteBuffer bufferToWrite = ByteBuffer.wrap("HelloClient".getBytes()); sc.write(bufferToWrite); } }
簡介:設計新的數據結構(鏈表)提供使用效率。
poll和select相比在本質上變化不大,只是poll沒有了select方式的最大文件描述符數量的限制。
缺點:逐個排查全部FD狀態效率不高。
簡介:沒有fd個數限制,用戶態拷貝到內核態只須要一次,使用事件通知機制來觸發。經過epoll_ctl註冊fd,一旦fd就緒就會經過callback回調機制來激活對應fd,進行相關的I/O操做。
缺點:
public static void main(String[] args) throws Exception { final AsynchronousServerSocketChannel serverChannel = AsynchronousServerSocketChannel.open() .bind(new InetSocketAddress(Constant.HOST, Constant.PORT)); serverChannel.accept(null, new CompletionHandler<AsynchronousSocketChannel, Object>() { @Override public void completed(final AsynchronousSocketChannel client, Object attachment) { serverChannel.accept(null, this); ByteBuffer buffer = ByteBuffer.allocate(1024); client.read(buffer, buffer, new CompletionHandler<Integer, ByteBuffer>() { @Override public void completed(Integer result, ByteBuffer attachment) { attachment.flip(); client.write(ByteBuffer.wrap("HelloClient".getBytes()));//業務邏輯 } @Override public void failed(Throwable exc, ByteBuffer attachment) { System.out.println(exc.getMessage());//失敗處理 } }); } @Override public void failed(Throwable exc, Object attachment) { exc.printStackTrace();//失敗處理 } }); while (true) { //不while true main方法一瞬間結束 } }
固然上面的缺點相比較它優勢均可以忽略。JDK提供了異步方式實現,但在實際的Linux環境中底層仍是epoll,只不過多了一層循環,不算真正的異步非阻塞。並且就像上圖中代碼調用,處理網絡鏈接的代碼和業務代碼解耦得不夠好。Netty提供了簡潔、解耦、結構清晰的API。
public static void main(String[] args) { new NettyServer().serverStart(); System.out.println("Netty server started !"); } public void serverStart() { EventLoopGroup bossGroup = new NioEventLoopGroup(); EventLoopGroup workerGroup = new NioEventLoopGroup(); ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer<SocketChannel>() { @Override protected void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new Handler()); } }); try { ChannelFuture f = b.localAddress(Constant.HOST, Constant.PORT).bind().sync(); f.channel().closeFuture().sync(); } catch (InterruptedException e) { e.printStackTrace(); } finally { workerGroup.shutdownGracefully(); bossGroup.shutdownGracefully(); } } } class Handler extends ChannelInboundHandlerAdapter { @Override public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception { ByteBuf buf = (ByteBuf) msg; ctx.writeAndFlush(msg); ctx.close(); } @Override public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception { cause.printStackTrace(); ctx.close(); } }
bossGroup 處理網絡請求的大管家(們),網絡鏈接就緒時,交給workGroup幹活的工人(們)。
這些技術都是伴隨Linux內核迭代中提供了高效處理網絡請求的系統調用而出現的。瞭解計算機底層的知識才能更深入地理解I/O,知其然,更要知其因此然。與君共勉!
文章來源:宜信技術學院 & 宜信支付結算團隊技術分享第8期-宜信支付結算部支付研發團隊高級工程師周勝帥《從操做系統層面理解Linux的網絡IO模型》
分享者:宜信支付結算部支付研發團隊高級工程師周勝帥
原文首發於支付結算團隊技術公號「野指針」