- init_address(server_addr)
- listenfd = socket(AF_INET,SOCKET_STREAM,0);
- bind(listenfd, (SA*)server_addr, sizeof(serveraddr));
- listen(listenfd,BACKLOG);
- for(;;)
- {
- connfd = accept(listenfd, (SA*)&cliaddr, &clilen);
- if(connfd < 0)
- {
- if(EINTR == errno)
- continue;
- else
- }
-
- if(fork() == 0)
- {
- close(c=listenfd);
- process_connection(connfd);
- exit(0);
- }
- close(connfd);
- }
早期的網絡服務器天天處理幾百或者幾千個客戶鏈接時,這種服務器模型仍是能夠應付的。
可是隨着互聯網業務的迅猛發展,繁忙的web服務器天天可能須要處理千萬以上的鏈接,
並
發服務器的問題在於爲每一個客戶現場fork一個子進程比較消耗cpu時間。
3.預先派生子進程,每一個子進程都調用accept,accept無上鎖保護
缺點:
- 服務器必須在啓動的時候判斷須要預先派生多少子進程
- 驚羣現象(一個鏈接到來喚醒全部監聽進程),不過較新版本的linux貌似修正了這個問題
優勢:無須引入父進程執行fork的開銷就能處理新到的客戶
4.預先派生子進程,以文件鎖的方式保護accept
本模型與3的區別僅僅是對accept(listenfd)使用了文件鎖。
這種模型是爲了解決以庫函數的形式實現的
accept不能在多個進程中引用同一個監聽套接口的
問題(源自BSD的unix,在內核中實現的accept能夠引用)。使用文件鎖保證了每一個鏈接到來,只有一個進程阻塞在accept調用上。對於已經在內核中實現了accept的系統來講,這種模型至少增長了加鎖解鎖的開銷,因此相對於第3種模型性能較低(特別是在消除了驚羣問題的系統上)
5.預先派生子進程,以線程互斥鎖上鎖的方式保護accept
典型代碼:
- static pthread_mutex_t *mptr;
- void
- my_lock_init(char *pathname)
- {
- int fd;
- pthread_mutexattr_t mattr;
- fd = open("/dev/zero", O_RDWR, 0,);
- mptr = mmap(0, sizeof(pthread_mutex_t), PORT_READ | PORT_WRITE, MAP_SHARED, fd, 0);
- close(fd);
- pthread_mutexattr_init(&mattr);
- pthread_mutexattr_setpshared(&mptr, PTHREAD_PROCESS_SHARED);
- pthread_mutex_init(mptr, &mattr);
- }
-
- void
- my_lock_wait()
- {
- pthread_mutex_lock(mptr);
- }
-
- void
- my_lock_release()
- {
- pthread_mutex_unlock(mptr);
- }
-
- int
- main(int argc, char **argv)
- {
- my_lock_init(pathname);
- for(i = 0; i < nchildren; ++i)
- {
- pids[i] = child_make(i, listenfd, addrlen);
- }
-
- for(;;)
- pause();
- }
-
- pid_t
- child_make(int i, int listenfd, int addrlen)
- {
- pid_t pid;
-
- if((pid = fork) > 0)
- return pid;
-
- child_main(i, listenfd, addrlen);
- }
-
- void
- child_main()
- {
- for(;;)
- {
- my_lock_wait();
- connfd = accept(listenfd, chiladdr, &clilen);
- my_lock_release();
- web_child(connfd);
- close(connfd);
- }
- }
這種模型在模型4上作出了進一步的改進,因爲以文件鎖的方式實現保護會涉及文件系統,這樣可能比較耗時,因此改進的辦法是以pthread mutex互斥量代替文件鎖。使用線程上鎖保護accept不只適用於同一進程內各線程上鎖,也適用於不一樣進程間上鎖在多進程環境下使用線程互斥鎖實現同步有兩點要求:
1.互斥鎖必須放在由全部進程共享的內存區
2.必須告知線程庫這是在不一樣的進程間共享的互斥鎖
注意:目前很火的高性能web服務器的表明nginx就是採用的這種模型,網絡上對nginx的研究不少。
6.預先派生子進程,由父進程向子進程傳遞套接口描述字
優點:不須要對accept上鎖保護
劣勢:
- 編碼複雜—父進程必須跟蹤子進程的忙閒狀態,以便給空閒子進程傳遞新的套接口。在前述的預先派生子進程的例子中,父進程無需關心由哪個子進程接收一個客戶鏈接,操做系統會根據調度算法處理這些細節。採用這種模型的結果是這些進程沒法均衡的處理鏈接。
- 父進程經過字節流管道把描述子傳遞到各個子進程,而且各個子進程經過字節流管道寫回單個字節,比起不管是使用共享內存區中的互斥鎖仍是使用文件鎖實施的上鎖和解鎖都更費時。
7.併發服務器,爲每一個客戶請求建立一個線程
典型代碼:
- for(;;)
- {
- connfd = accept(listenfd, cliaddr, &clilen,);
- pthread_create(&tid, NULL, &doit, (void *)connfd);
- }
-
- void *
- doit(void *arg)
- {
- pthread_detach(pthread_self());
- web_child((int)arg);
- close((int)arg)
- return (NULL);
- }
優勢:編碼簡單。
缺點:現場爲每一個鏈接建立線程相對於預先派生線程池來講比較耗時。
8.預先建立線程,以互斥鎖上鎖方式保護accept
優點:
- 編程簡介,易於理解
- 線程池的方式避免了現場建立線程的開銷
- OS線程調度算法保證了線程負載的均衡性
這就是leader-follower模式一個線程等待鏈接到來,其餘線程休眠;新鏈接到來後leader去處理鏈接,釋放listenfd,其餘線程競搶監聽套接口listenfd(可能有驚羣的問題)。leader在處理完鏈接之後成爲follower。
9.預先建立線程,由主線程調用accept,並把每一個客戶鏈接傳遞給線程池中某個可用線程
劣勢:相對於模型8,該模型不只須要使用pthread mutex額外還須要使用pthread cond。