本文原創文章,轉載註明出處,博客地址 https://segmentfault.com/u/to... 第一時間看後續精彩文章。以爲好的話,順手分享到朋友圈吧,感謝支持。golang
筆者目前處於失業狀態,以前一直對Golang如何處理高併發http請求的一頭霧水,這幾天也查了不少相關博客,似懂非懂,不知道具體代碼怎麼寫編程
下午偶然在開發者頭條APP上看到一篇國外技術人員的一篇文章用Golang處理每分鐘百萬級請求,看完文章中的代碼,本身寫了一遍代碼,下面本身寫下本身的體會segmentfault
將請求放入隊列,經過必定數量(例如CPU核心數)goroutine組成一個worker池(pool),workder池中的worker讀取隊列執行任務後端
如下代碼筆者根據本身的理解進行了簡化,主要是表達出我的的思路,實際後端開發中,根據實際場景修改併發
func doTask() { //耗時炒做(模擬) time.Sleep(200 * time.Millisecond) wg.Done() } //這裏模擬的http接口,每次請求抽象爲一個job func handle() { //wg.Add(1) job := Job{} JobQueue <- job } var ( MaxWorker = 1000 MaxQueue = 200000 wg sync.WaitGroup ) type Worker struct { quit chan bool } func NewWorker() Worker { return Worker{ quit: make(chan bool)} } // Start method starts the run loop for the worker, listening for a quit channel in // case we need to stop it func (w Worker) Start() { go func() { for { select { case <-JobQueue: // we have received a work request. doTask() case <-w.quit: // we have received a signal to stop return } } }() } // Stop signals the worker to stop listening for work requests. func (w Worker) Stop() { go func() { w.quit <- true }() } type Job struct { } var JobQueue chan Job = make(chan Job, MaxQueue) type Dispatcher struct { } func NewDispatcher() *Dispatcher { return &Dispatcher{} } func (d *Dispatcher) Run() { // starting n number of workers for i := 0; i < MaxWorker; i++ { worker := NewWorker() worker.Start() } }
func Benchmark_handle(b *testing.B) { runtime.GOMAXPROCS(runtime.NumCPU()) d := NewDispatcher() d.Run() for i:=0;i<10000;i++ { wg.Add(1) handle() } wg.Wait() }
pkg: golang-study-demo/goroutine 1 2029931652 ns/op PASS
1w個任務放到隊列中,1000個worker去執行任務,每一個任務的耗時200ms,任務執行完須要2s多高併發
以上只是筆者的我的見解,不知道對Golang併發編程的理解是否正確,有錯誤的地方,但願高手指點一二,在此謝過oop