回到頂部html
epoll
是Linux內核中的一種可擴展IO事件處理機制,最先在 Linux 2.5.44內核中引入,可被用於代替POSIX select 和 poll 系統調用,而且在具備大量應用程序請求時可以得到較好的性能( 此時被監視的文件描述符數目很是大,與舊的 select 和 poll 系統調用完成操做所需 O(n) 不一樣, epoll能在O(1)時間內完成操做,因此性能至關高),epoll 與 FreeBSD的kqueue相似,都向用戶空間提供了本身的文件描述符來進行操做。linux
回到頂部ios
在linux 沒有實現epoll事件驅動機制以前,咱們通常選擇用select或者poll等IO多路複用的方法來實現併發服務程序。在大數據、高併發、集羣等一些名詞唱得火熱之年代,select和poll的用武之地愈來愈有限,風頭已經被epoll佔盡。編程
select的缺點:數組
(1)單個進程可以監視的文件描述符的數量存在最大限制,一般是1024,固然能夠更改數量,但因爲select採用輪詢的方式掃描文件描述符,文件描述符數量越多,性能越差;(在linux內核頭文件中,有這樣的定義:#define __FD_SETSIZE 1024)服務器
(2)內核 / 用戶空間內存拷貝問題,select須要複製大量的句柄數據結構,產生巨大的開銷;數據結構
(3)select返回的是含有整個句柄的數組,應用程序須要遍歷整個數組才能發現哪些句柄發生了事件;併發
(4)select的觸發方式是水平觸發,應用程序若是沒有完成對一個已經就緒的文件描述符進行IO操做,那麼以後每次select調用仍是會將這些文件描述符通知進程。異步
相比select模型,poll使用鏈表保存文件描述符,所以沒有了監視文件數量的限制,但其餘三個缺點依然存在。拿select模型爲例,假設咱們的服務器須要支持100萬的併發鏈接,則在__FD_SETSIZE 爲1024的狀況下,則咱們至少須要開闢1k個進程才能實現100萬的併發鏈接。除了進程間上下文切換的時間消耗外,從內核/用戶空間大量的無腦內存拷貝、數組輪詢等,是系統難以承受的。所以,基於select模型的服務器程序,要達到10萬級別的併發訪問,是一個很難完成的任務。所以,該epoll上場了。socket
int epoll_create(int size);
建立一個epoll的句柄,size用來告訴內核須要監聽的數目一共有多大。當建立好epoll句柄後,它就是會佔用一個fd值,在linux下若是查看/proc/進程id/fd/,是可以看到這個fd的,因此在使用完epoll後,必須調用close() 關閉,不然可能致使fd被耗盡。
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
epoll的事件註冊函數,第一個參數是 epoll_create() 的返回值,第二個參數表示動做,使用以下三個宏來表示:
EPOLL_CTL_ADD //註冊新的fd到epfd中; EPOLL_CTL_MOD //修改已經註冊的fd的監聽事件; EPOLL_CTL_DEL //從epfd中刪除一個fd;
第三個參數是須要監聽的fd,第四個參數是告訴內核須要監聽什麼事,struct epoll_event 結構以下:
typedef union epoll_data { void *ptr; int fd; __uint32_t u32; __uint64_t u64; } epoll_data_t; struct epoll_event { __uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */ };
events 能夠是如下幾個宏的集合:
EPOLLIN //表示對應的文件描述符能夠讀(包括對端SOCKET正常關閉); EPOLLOUT //表示對應的文件描述符能夠寫; EPOLLPRI //表示對應的文件描述符有緊急的數據可讀(這裏應該表示有帶外數據到來); EPOLLERR //表示對應的文件描述符發生錯誤; EPOLLHUP //表示對應的文件描述符被掛斷; EPOLLET //將EPOLL設爲邊緣觸發(Edge Triggered)模式,這是相對於水平觸發(Level Triggered)來講的。 EPOLLONESHOT//只監聽一次事件,當監聽完此次事件以後,若是還須要繼續監聽這個socket的話,須要再次把這個socket加入到EPOLL隊列裏。
當對方關閉鏈接(FIN), EPOLLERR,均可以認爲是一種EPOLLIN事件,在read的時候分別有0,-1兩個返回值。
int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
參數events用來從內核獲得事件的集合,maxevents 告以內核這個events有多大,這個 maxevents 的值不能大於建立 epoll_create() 時的size,參數 timeout 是超時時間(毫秒,0會當即返回,-1將不肯定,也有說法說是永久阻塞)。該函數返回須要處理的事件數目,如返回0表示已超時。
EPOLL事件有兩種模型 Level Triggered (LT) 和 Edge Triggered (ET):
LT(level triggered,水平觸發模式)是缺省的工做方式,而且同時支持 block 和 non-block socket。在這種作法中,內核告訴你一個文件描述符是否就緒了,而後你能夠對這個就緒的fd進行IO操做。若是你不做任何操做,內核仍是會繼續通知你的,因此,這種模式編程出錯誤可能性要小一點。
ET(edge-triggered,邊緣觸發模式)是高速工做方式,只支持no-block socket。在這種模式下,當描述符從未就緒變爲就緒時,內核經過epoll告訴你。而後它會假設你知道文件描述符已經就緒,而且不會再爲那個文件描述符發送更多的就緒通知,等到下次有新的數據進來的時候纔會再次出發就緒事件。
/*主要包含重要的頭文件*/ #include <unistd.h> #include <stdlib.h> #include <stdio.h> #include<fcntl.h> #include <sys/types.h> #include <sys/stat.h> #include <sys/wait.h> #include <iostream> #include <string.h> #include <exception> #include <sys/socket.h> #include <netinet/in.h> // sockaddr_in, "man 7 ip" ,htons #include <poll.h> //poll,pollfd #include <arpa/inet.h> //inet_addr,inet_aton #include <unistd.h> //read,write #include <netdb.h> //gethostbyname #include <sys/epoll.h> using namespace std;
#include "intf.h" #include "socket.h" #include <algorithm> #define MAXEVENTS 64 struct MSG { string strBuff; SOCKET s; }; // 採用epoll異步機制實現服務器 int main() { // 建立socket string ip = "192.168.176.131"; int port = 1122; TcpSocket tcp(AF_INET, SOCK_STREAM); tcp.Bind(ip, port); tcp.Listen(MAXEVENTS); // 設置socket爲O_NONBLOCK int flags = fcntl(tcp.m_Sock, F_GETFL, 0); if(!(flags & O_NONBLOCK)) { flags |= O_NONBLOCK; } int exflags = fcntl(tcp.m_Sock, F_SETFL, 0); if(exflags == -1) { cout << "fcntl F_SETFL o_NONBLOCK faild" << endl; return -1; } // 建立epoll,該參數在新版本的linux中已經沒有做用了 int epollftd = epoll_create(MAXEVENTS); if(epollftd == -1) { cout << "epoll create faild" << endl; return -1; } // 將服務區socket描述符添加到epoll epoll_event event; event.events = EPOLLIN | EPOLLET; event.data.fd = tcp.m_Sock; int ret = epoll_ctl(epollftd, EPOLL_CTL_ADD, tcp.m_Sock, &event); if(ret == -1) { cout << "epoll_ctrl EPOLL_CTL_ADD faild" << endl; return -1; } epoll_event *pEvents = (epoll_event *)calloc(MAXEVENTS, sizeof(epoll_event)); if(!pEvents) { cout << "calloc epoll events faild" << endl; return -1; } // 事件處理 while(1) { int nEventNum = epoll_wait(epollftd, pEvents, MAXEVENTS, 500); for(int i = 0; i < nEventNum; i ++) { // 新鏈接到來 if(pEvents[i].data.fd == tcp.m_Sock) { cout << "準備接收客戶端的鏈接" << endl; SOCKET client = tcp.Accept(); cout << "有客戶端鏈接" << endl; // 添加到隊列中 epoll_event ev; ev.events = EPOLLIN | EPOLLET; ev.data.fd = client; epoll_ctl(epollftd, EPOLL_CTL_ADD, client, &ev); } else if(pEvents[i].events & EPOLLIN) { string strBuff = tcp.Recv(pEvents[i].data.fd); cout << "接收到客戶端數據:" << strBuff << endl; if(strBuff == "EOF") { cout << "客戶端:" << pEvents[i].data.fd << "請求斷開鏈接" << endl; } string strSend = ""; transform(strBuff.begin(), strBuff.end(), back_inserter(strSend), ::toupper); MSG msg; msg.strBuff = strSend; msg.s = pEvents[i].data.fd; epoll_event ev; ev.data.fd = pEvents[i].data.fd; ev.events = EPOLLOUT | EPOLLET; ev.data.ptr = (void *)&msg; epoll_ctl(epollftd, EPOLL_CTL_MOD, pEvents[i].data.fd, &ev); } else if(pEvents[i].events & EPOLLOUT) { MSG *pMsg = (MSG*)pEvents[i].data.ptr; cout << "向客戶端輸出信息:" << pMsg->strBuff << endl; int ret = tcp.Send(pMsg->s, pMsg->strBuff); event.data.fd = pMsg->s; event.events = EPOLLIN | EPOLLET; epoll_ctl(epollftd, EPOLL_CTL_MOD, pMsg->s, &event); } else { cout << "其它的處理" << endl; } } } return 0; }
#include "intf.h" #include "socket.h" #define MAXEVENTS 64 struct MSG { string strBuff; SOCKET s; }; // 採用epoll異步機制實現客戶端 int main() { // 建立socket string ip = "192.168.176.131"; int port = 1122; TcpSocket tcp(AF_INET, SOCK_STREAM); tcp.ConnectSocket(ip, port, SOCK_CLIENT); int pid = fork(); if(pid < 0) { cout << "建立子進程失敗" << endl; } else if(pid == 0) { cout << "子進程建立成功,負責向服務器發送消息" << endl; string strBuff = ""; while(getline(cin, strBuff)) { tcp.Send(tcp.m_Sock, strBuff); cout << "客戶端發送消息:" << strBuff << endl; if(strBuff == "EOF") { cout << "子進程請求斷開鏈接" << endl; break; } } cout << "子進程斷開鏈接" << endl; exit(0); } else{ cout << "父進程負責接收服務器信息" << endl; while(1) { string strBuff = tcp.Recv(tcp.m_Sock); if(strBuff.length() > 0) { cout << "客戶端接收到信息:" << strBuff << endl; if(strBuff == "EOF") { cout << "服務器請求斷開鏈接" << endl; break; } } } wait(NULL); } return 0; }
要了解epoll的具體實現機制能夠參考:http://www.javashuo.com/article/p-bfjmamzc-mt.html