項目地址:https://github.com/gatsbyd/melongit
開發服務端程序的一個基本任務是處理併發鏈接,如今服務端網絡編程處理併發鏈接主要有兩種方式:github
在線程很寶貴的狀況下,常見的服務器編程模型有以下幾種:編程
melon是基於Reactor模式的Linux C++網絡服務框架,集合了上述兩種方式,實現了協程的概念,對一些函數進行了hook,因此能夠像操做阻塞IO同樣進行編程。後端
在工程主目錄下新建build目錄,進入build目錄,安全
cmake .. make all
編譯完成後,example和test中的可執行程序分別位於build目錄下的example和test中。服務器
以echo服務端爲例,網絡
void handleClient(TcpConnection::Ptr conn){ conn->setTcpNoDelay(true); Buffer::Ptr buffer = std::make_shared<Buffer>(); while (conn->read(buffer) > 0) { conn->write(buffer); } conn->close(); } int main(int args, char* argv[]) { if (args != 2) { printf("Usage: %s threads\n", argv[0]); return 0; } Logger::setLogLevel(LogLevel::INFO); Singleton<Logger>::getInstance()->addAppender("console", LogAppender::ptr(new ConsoleAppender())); IpAddress listen_addr(5000); int threads_num = std::atoi(argv[1]); Scheduler scheduler(threads_num); scheduler.startAsync(); TcpServer server(listen_addr, &scheduler); server.setConnectionHandler(handleClient); server.start(); scheduler.wait(); return 0; }
只須要爲TcpServer設置鏈接處理函數,在鏈接處理函數中,參數TcpConnection::Ptr conn表明這次鏈接,能夠像阻塞IO同樣進行讀寫,若是發生阻塞,當前協程會被切出去,直到可讀或者可寫事件到來時,該協程會被從新執行。併發
硬件環境:Intel Core i7-8550U CPU 1.80GHz,8核,8G RAM
軟件環境:操做系統爲Ubuntu 16.04.2 LTS,g++版本5.4.0
測試對象:asio 1.14.0, melon 0.1.0app
測試方法:
根據asio的測試方法,用echo協議來測試。客戶端和服務端創建鏈接,客戶端向服務端發送一些數據,服務端收到後將數據原封不動地發回給客戶端,客戶端收到後再將數據發給服務端,直到一方斷開鏈接位置。
melon的測試代碼在test/TcpClient_test.cpp和test/TcpServer_test.cpp。
asio的測試代碼在/src/tests/performance目錄下的client.cpp和server.cpp。
測試1:客戶端和服務器運行在同一臺機器上,均爲單線程,測試併發數爲1/10/100/1000/10000的吞吐量。
吞吐量(MiB/s) | 1 | 10 | 100 | 1000 |
---|---|---|---|---|
melon | 202 | 388 | 376 | 327 |
asio | 251 | 541 | 489 | 436 |
測試2:客戶端和服務器運行在同一臺機器上,均爲開啓兩個線程,測試併發鏈接數100的吞吐量。
吞吐量(MiB/s) | 2個線程 |
---|---|
melon | 499 |
asio | 587 |
從數據看目前melon的性能還不及asio,可是考慮到melon存在協程切換的成本和0.1.0版本沒有上epoll,協程切換也是用的ucontext,整體來講能夠接受。
這是個典型的生產者-消費者問題。產生日誌的線程將日誌先存到緩衝區,日誌消費線程將緩衝區中的日誌寫到磁盤。要保證兩個線程的臨界區儘量小。
每條LOG_DEBUG等語句對應建立一個匿名LogWrapper對象,同時蒐集日誌信息保存到LogEvent對象中,匿名對象建立完畢就會調用析構函數,在LogWrapper析構函數中將LogEvent送到Logger中,Logger再送往不一樣的目的地,好比控制檯,文件等。
AsyncFileAppend對外提供append方法,前端Logger只須要調用這個方法往裏面塞日誌,不用擔憂會被阻塞。
前端和後端都維護一個緩衝區。
第一種狀況:前端寫日誌較慢,三秒內還沒寫滿一個緩衝區。後端線程會被喚醒,進入臨界區,在臨界區內交換兩個buffer的指針,出臨界區後前端cur指向的緩衝區又是空的了,後端buffer指向的緩衝區爲剛纔蒐集了日誌的緩衝區,後端線程隨後將buffer指向的緩衝區中的日誌寫到磁盤中。臨界區內只交換兩個指針,因此臨界區很小。
第二種狀況:前端寫日誌較快,三秒內已經寫滿了一個緩衝區。好比兩秒的時候已經寫滿了第一個緩衝區,那麼將cur指針保存到一個向量buffers_中,而後開闢一塊新的緩衝區,另cur指向這塊新緩衝區。而後喚醒後端消費線程,後端線程進入臨界區,將cur和後端buffer_指針進行交換,將前端buffers_向量和後端persist_buffers_向量進行swap(對於std::vector也是指針交換)。出了臨界區後,前端的cur始終指向一塊乾淨的緩衝區,前端的向量buffers_也始終爲空,後端的persist_buffers_向量中始終保存着有日誌的緩衝區的指針。臨界區一樣很小僅僅是幾個指針交換。
成員變量:
成員函數:
ucontext系列函數:
int getcontext(ucontext_t *ucp)
: 將此刻的上下文保存到ucp指向的結構中。int setcontext(const ucontext_t *ucp)
: 調用成功後不會返回,執行流轉移到ucp指向的上下文。void makecontext(ucontext_t *ucp, void (*func)(), int argc, ...)
:從新設置ucp指向的上下文爲func函數起始處。ucp結構由getcontext()獲取。後續以ucp爲參數調用setcontext()或者swapcontext()執行流將轉到func函數。int swapcontext(ucontext_t *oucp, const ucontext_t *ucp)
:保存當前上下文到oucp,並激活ucp指向的上下文。不能太大:協程多了,內存浪費。
不能過小:使用者可能無心在棧上分配一個緩衝區,致使棧溢出。
暫時先固定爲128K。
目前是非搶佔式調度。只能由協程主動或者協程執行完畢,纔會讓出CPU。
兩個協程間可能須要同步操做,好比協程1須要等待某個條件才能繼續運行,線程2修改條件而後通知協程1。
目前實現了簡陋的wait/notify機制,見CoroutineCondition。
線程棧上的對象,線程退出後自動銷燬,生命週期大可沒必要操心。
成員變量:
成員函數:
每一個線程都有一個本地變量t_cur_cotourine指向當前正在執行的協程對象。
Processer.run()函數做爲Main協程進行調度,沒有協程在協程隊列時,執行Poll協程,該協程執行poll()函數。以read操做爲例,某個協程在執行read的操做時,若是數據沒有準備好,就會將<fd, 當前協程對象>對註冊到Poller中,而後掛起。若是全部協程都阻塞了,那麼會執行Poll協程等待poll()函數返回,poll()函數返回後,若是有事件發生,會根據以前註冊的<fd, 協程對象>,將協程對象從新加入調度隊列,此時read已經有數據可讀了。
Main協程對應的代碼邏輯以下:
void Processer::run() { if (GetProcesserOfThisThread() != nullptr) { LOG_FATAL << "run two processer in one thread"; } else { GetProcesserOfThisThread() = this; } melon::setHookEnabled(true); Coroutine::Ptr cur; //沒有能夠執行協程時調用poll協程 Coroutine::Ptr poll_coroutine = std::make_shared<Coroutine>(std::bind(&Poller::poll, &poller_, kPollTimeMs), "Poll"); while (!stop_) { { MutexGuard guard(mutex_); //沒有協程時執行poll協程 if (coroutines_.empty()) { cur = poll_coroutine; poller_.setPolling(true); } else { for (auto it = coroutines_.begin(); it != coroutines_.end(); ++it) { cur = *it; coroutines_.erase(it); break; } } } cur->swapIn(); if (cur->getState() == CoroutineState::TERMINATED) { load_--; } } }
Poll協程對應的代碼邏輯以下:
void PollPoller::poll(int timeout) { while (!processer_->stoped()) { is_polling_ = true; int num = ::poll(&*pollfds_.begin(), pollfds_.size(), timeout); is_polling_ = false; if (num == 0) { } else if (num < 0) { if (errno != EINTR) { LOG_ERROR << "poll error, errno: " << errno << ", error str:" << strerror(errno); } } else { std::vector<int> active_fds; for (const auto& pollfd : pollfds_) { if (pollfd.revents > 0) { --num; active_fds.push_back(pollfd.fd); if (num == 0) { break; } } } for (const auto& active_fd : active_fds) { auto coroutine = fd_to_coroutine_[active_fd]; assert(coroutine != nullptr); removeEvent(active_fd); processer_->addTask(coroutine); } } Coroutine::SwapOut(); } } }
可能出現這種狀況:正在執行Poll協程,而且沒有事件到達,這時新加入一個協程,若是沒有機制將Poll協程從poll()函數中喚醒,那麼這個新的協程將沒法獲得執行。wake協程會read eventfd,此時會將<eventfd, wake協程>註冊到Poller中,若是有新的協程加入,會往eventfd寫1字節的數據,那麼poll()函數就會被喚醒,從而Poll協程讓出CPU,新加入的協程被調度。
#include <sys/timerfd.h> int timerfd_create(int clockid, int flags); //建立一個timer對象,返回一個文件描述符timer fd表明這個timer對象。 int timerfd_settime(int fd, int flags, const struct itimerspec *new_value, struct itimerspec *old_value); //爲timer對象設置一個時間間隔,倒計時結束後timer fd將變爲可讀。
要想實如今協程中遇到耗時操做不阻塞當前IO線程,須要對一些系統函數進行hook。
unsigned int sleep(unsigned int seconds) { melon::Processer* processer = melon::Processer::GetProcesserOfThisThread(); if (!melon::isHookEnabled()) { return sleep_f(seconds); } melon::Scheduler* scheduler = processer->getScheduler(); assert(scheduler != nullptr); scheduler->runAt(melon::Timestamp::now() + seconds * melon::Timestamp::kMicrosecondsPerSecond, melon::Coroutine::GetCurrentCoroutine()); melon::Coroutine::SwapOut(); return 0; }
咱們本身定義的sleep不會阻塞線程,而是將當前協程切出去,讓CPU執行其它協程,等時間到了再執行當前協程。這樣就模擬了sleep的操做,同時不會阻塞當前線程。
rpc說簡單點就是將參數傳給服務端,服務端根據參數找到對應的函數執行,得出一個響應,再將響應傳回給客戶端。客戶端的參數對象如何經過網絡傳到服務端呢?這就涉及到序列化和反序列化。
melon選擇Protobuf,Protobuf具備很強的反射能力,在僅知道typename的狀況下就能建立typename對應的對象。
google::protobuf::Message* ProtobufCodec::createMessage(const std::string& typeName) { google::protobuf::Message* message = nullptr; const google::protobuf::Descriptor* descriptor = google::protobuf::DescriptorPool::generated_pool()->FindMessageTypeByName(typeName); if (descriptor) { const google::protobuf::Message* prototype = google::protobuf::MessageFactory::generated_factory()->GetPrototype(descriptor); if (prototype) { message = prototype->New(); } } return message; }
上述函數根據參數typename就能建立一個Protobuf對象,這個新建的對象結合序列化後的Protobuf數據就能在服務端生成一個和客戶端同樣的Protobuf對象。
|-------------------| | total byte | 總的字節數 |-------------------| | typename | 類型名 |-------------------| | typename len | 類型名長度 |-------------------| | protobuf data | Protobuf對象序列化後的數據 |-------------------| | checksum | 整個消息的checksum |-------------------|
某次rpc的過程以下:
客戶端包裝請求併發送 ----------------> 服務端接收請求 服務端解析請求,找到並執行對應的service::method 客戶端接收響並解析 <---------------- 服務端將響應發回給客戶端