【Go】優雅的讀取http請求或響應的數據

原文連接:https://blog.thinkeridea.com/...html

http.Request.Bodyhttp.Response.Body 中讀取數據方法或許不少,標準庫中大多數使用 ioutil.ReadAll 方法一次讀取全部數據,若是是 json 格式的數據還可使用 json.NewDecoderio.Reader 建立一個解析器,假使使用 pprof 來分析程序老是會發現 bytes.makeSlice 分配了大量內存,且老是排行第一,今天就這個問題來講一下如何高效優雅的讀取 http 中的數據。node

背景介紹

咱們有許多 api 服務,所有采用 json 數據格式,請求體就是整個 json 字符串,當一個請求到服務端會通過一些業務處理,而後再請求後面更多的服務,全部的服務之間都用 http 協議來通訊(啊, 爲啥不用 RPC,由於全部的服務都會對第三方開放,http + json 更好對接),大多數請求數據大小在 1K~4K,響應的數據在 1K~8K,早期全部的服務都使用 ioutil.ReadAll 來讀取數據,隨着流量增長使用 pprof 來分析發現 bytes.makeSlice 老是排在第一,而且佔用了整個程序 1/10 的內存分配,我決定針對這個問題進行優化,下面是整個優化過程的記錄。git

pprof 分析

這裏使用 https://github.com/thinkeridea/go-extend/blob/master/exnet/exhttp/expprof/pprof.go 中的 API 來實現生產環境的 /debug/pprof 監測接口,沒有使用標準庫的 net/http/pprof 包由於會自動註冊路由,且長期開放 API,這個包能夠設定 API 是否開放,並在規定時間後自動關閉接口,避免存在工具嗅探。github

服務部署上線穩定後(大約過了一天半),經過 curl 下載 allocs 數據,而後使用下面的命令查看分析。web

$ go tool pprof allocs
File: xxx
Type: alloc_space
Time: Jan 25, 2019 at 3:02pm (CST)
Entering interactive mode (type "help" for commands, "o" for options)
(pprof) top
Showing nodes accounting for 604.62GB, 44.50% of 1358.61GB total
Dropped 776 nodes (cum <= 6.79GB)
Showing top 10 nodes out of 155
      flat  flat%   sum%        cum   cum%
  111.40GB  8.20%  8.20%   111.40GB  8.20%  bytes.makeSlice
  107.72GB  7.93% 16.13%   107.72GB  7.93%  github.com/sirupsen/logrus.(*Entry).WithFields
   65.94GB  4.85% 20.98%    65.94GB  4.85%  strings.Replace
   54.10GB  3.98% 24.96%    56.03GB  4.12%  github.com/json-iterator/go.(*frozenConfig).Marshal
   47.54GB  3.50% 28.46%    47.54GB  3.50%  net/url.unescape
   47.11GB  3.47% 31.93%    48.16GB  3.55%  github.com/json-iterator/go.(*Iterator).readStringSlowPath
   46.63GB  3.43% 35.36%   103.04GB  7.58%  handlers.(*AdserviceHandler).returnAd
   42.43GB  3.12% 38.49%    84.62GB  6.23%  models.LogItemsToBytes
   42.22GB  3.11% 41.59%    42.22GB  3.11%  strings.Join
   39.52GB  2.91% 44.50%    87.06GB  6.41%  net/url.parseQuery

從結果中能夠看出採集期間一共分配了 1358.61GB top 10 佔用了 44.50% 其中 bytes.makeSlice 佔了接近 1/10,那麼看看都是誰在調用 bytes.makeSlice 吧。shell

(pprof) web bytes.makeSlice

圖片描述

從上圖能夠看出調用 bytes.makeSlice 的最終方法是 ioutil.ReadAll, (受篇幅影響就沒有截取 ioutil.ReadAll 上面的方法了),而 90% 都是 ioutil.ReadAll 讀取 http 數據調用,找到地方先別急想優化方案,先看看爲啥 ioutil.ReadAll 會致使這麼多內存分配。json

func readAll(r io.Reader, capacity int64) (b []byte, err error) {
    var buf bytes.Buffer
    // If the buffer overflows, we will get bytes.ErrTooLarge.
    // Return that as an error. Any other panic remains.
    defer func() {
        e := recover()
        if e == nil {
            return
        }
        if panicErr, ok := e.(error); ok && panicErr == bytes.ErrTooLarge {
            err = panicErr
        } else {
            panic(e)
        }
    }()
    if int64(int(capacity)) == capacity {
        buf.Grow(int(capacity))
    }
    _, err = buf.ReadFrom(r)
    return buf.Bytes(), err
}

func ReadAll(r io.Reader) ([]byte, error) {
    return readAll(r, bytes.MinRead)
}

以上是標準庫 ioutil.ReadAll 的代碼,每次會建立一個 var buf bytes.Buffer 而且初始化 buf.Grow(int(capacity)) 的大小爲 bytes.MinRead, 這個值呢就是 512,按這個 buffer 的大小讀取一次數據須要分配 2~16 次內存,天啊簡直不能忍,我本身建立一個 buffer 好很差。api

看一下火焰圖🔥吧,其中紅框標記的就是 ioutil.ReadAll 的部分,顏色比較鮮豔。網絡

圖片描述

優化讀取方法

本身建立足夠大的 buffer 減小由於容量不夠致使的屢次擴容問題。curl

buffer := bytes.NewBuffer(make([]byte, 4096))
_, err := io.Copy(buffer, request.Body)
if err !=nil{
    return nil, err
}

恩恩這樣應該差很少了,爲啥是初始化 4096 的大小,這是個均值,即便比 4096 大基本也就多分配一次內存便可,並且大多數數據都是比 4096 小的。

可是這樣真的就算好了嗎,固然不能這樣,這個 buffer 個每請求都要建立一次,是否是應該考慮一下複用呢,使用 sync.Pool 創建一個緩衝池效果就更好了。

如下是優化讀取請求的簡化代碼:

package adapter

import (
    "bytes"
    "io"
    "net/http"
    "sync"

    "github.com/json-iterator/go"
    "github.com/sirupsen/logrus"
    "github.com/thinkeridea/go-extend/exbytes"
)

type Adapter struct {
    pool sync.Pool
}

func New() *Adapter {
    return &Adapter{
        pool: sync.Pool{
            New: func() interface{} {
                return bytes.NewBuffer(make([]byte, 4096))
            },
        },
    }
}

func (api *Adapter) GetRequest(r *http.Request) (*Request, error) {
    buffer := api.pool.Get().(*bytes.Buffer)
    buffer.Reset()
    defer func() {
        if buffer != nil {
            api.pool.Put(buffer)
            buffer = nil
        }
    }()

    _, err := io.Copy(buffer, r.Body)
    if err != nil {
        return nil, err
    }

    request := &Request{}
    if err = jsoniter.Unmarshal(buffer.Bytes(), request); err != nil {
        logrus.WithFields(logrus.Fields{
            "json": exbytes.ToString(buffer.Bytes()),
        }).Errorf("jsoniter.UnmarshalJSON fail. error:%v", err)
        return nil, err
    }
    api.pool.Put(buffer)
    buffer = nil

    // ....
    
    return request, nil
}

使用 sync.Pool 的方式是否是有點怪,主要是 deferapi.pool.Put(buffer);buffer = nil 這裏解釋一下,爲了提升 buufer 的複用率會在不使用時儘快把 buffer 放回到緩衝池中,defer 之因此會判斷 buffer != nil 主要是在業務邏輯出現錯誤時,可是 buffer 尚未放回緩衝池時把 buffer 放回到緩衝池,由於在每一個錯誤處理以後都寫 api.pool.Put(buffer) 不是一個好的方法,並且容易忘記,可是若是在肯定再也不使用時 api.pool.Put(buffer);buffer = nil 就能夠儘早把 buffer 放回到緩衝池中,提升複用率,減小新建 buffer

這樣就行了嗎,別急,以前說服務裏面還會構建請求,看看構建請求如何優化吧。

package adapter

import (
    "bytes"
    "fmt"
    "io"
    "io/ioutil"
    "net/http"
    "sync"

    "github.com/json-iterator/go"
    "github.com/sirupsen/logrus"
    "github.com/thinkeridea/go-extend/exbytes"
)

type Adapter struct {
    pool sync.Pool
}

func New() *Adapter {
    return &Adapter{
        pool: sync.Pool{
            New: func() interface{} {
                return bytes.NewBuffer(make([]byte, 4096))
            },
        },
    }
}

func (api *Adapter) Request(r *Request) (*Response, error) {
    var err error
    buffer := api.pool.Get().(*bytes.Buffer)
    buffer.Reset()
    defer func() {
        if buffer != nil {
            api.pool.Put(buffer)
            buffer = nil
        }
    }()

    e := jsoniter.NewEncoder(buffer)
    err = e.Encode(r)
    if err != nil {
        logrus.WithFields(logrus.Fields{
            "request": r,
        }).Errorf("jsoniter.Marshal failure: %v", err)
        return nil, fmt.Errorf("jsoniter.Marshal failure: %v", err)
    }

    data := buffer.Bytes()
    req, err := http.NewRequest("POST", "http://xxx.com", buffer)
    if err != nil {
        logrus.WithFields(logrus.Fields{
            "data": exbytes.ToString(data),
        }).Errorf("http.NewRequest failed: %v", err)
        return nil, fmt.Errorf("http.NewRequest failed: %v", err)
    }

    req.Header.Set("User-Agent", "xxx")

    httpResponse, err := http.DefaultClient.Do(req)
    if httpResponse != nil {
        defer func() {
            io.Copy(ioutil.Discard, httpResponse.Body)
            httpResponse.Body.Close()
        }()
    }

    if err != nil {
        logrus.WithFields(logrus.Fields{
            "url": "http://xxx.com",
        }).Errorf("query service failed %v", err)
        return nil, fmt.Errorf("query service failed %v", err)
    }

    if httpResponse.StatusCode != 200 {
        logrus.WithFields(logrus.Fields{
            "url":         "http://xxx.com",
            "status":      httpResponse.Status,
            "status_code": httpResponse.StatusCode,
        }).Errorf("invalid http status code")
        return nil, fmt.Errorf("invalid http status code")
    }

    buffer.Reset()
    _, err = io.Copy(buffer, httpResponse.Body)
    if err != nil {
        return nil, fmt.Errorf("adapter io.copy failure error:%v", err)
    }

    respData := buffer.Bytes()
    logrus.WithFields(logrus.Fields{
        "response_json": exbytes.ToString(respData),
    }).Debug("response json")

    res := &Response{}
    err = jsoniter.Unmarshal(respData, res)
    if err != nil {
        logrus.WithFields(logrus.Fields{
            "data": exbytes.ToString(respData),
            "url":  "http://xxx.com",
        }).Errorf("adapter jsoniter.Unmarshal failed, error:%v", err)
        return nil, fmt.Errorf("adapter jsoniter.Unmarshal failed, error:%v", err)
    }
    
    api.pool.Put(buffer)
    buffer = nil

    // ...
    return res, nil
}

這個示例和以前差很少,只是不只用來讀取 http.Response.Body 還用來建立一個 jsoniter.NewEncoder 用來把請求壓縮成 json 字符串,而且做爲 http.NewRequestbody 參數, 若是直接用 jsoniter.Marshal 一樣會建立不少次內存,jsoniter 也使用 buffer 作爲緩衝區,而且默認大小爲 512, 代碼以下:

func (cfg Config) Froze() API {
    api := &frozenConfig{
        sortMapKeys:                   cfg.SortMapKeys,
        indentionStep:                 cfg.IndentionStep,
        objectFieldMustBeSimpleString: cfg.ObjectFieldMustBeSimpleString,
        onlyTaggedField:               cfg.OnlyTaggedField,
        disallowUnknownFields:         cfg.DisallowUnknownFields,
    }
    api.streamPool = &sync.Pool{
        New: func() interface{} {
            return NewStream(api, nil, 512)
        },
    }
    // .....
    return api
}

並且序列化以後會進行一次數據拷貝:

func (cfg *frozenConfig) Marshal(v interface{}) ([]byte, error) {
    stream := cfg.BorrowStream(nil)
    defer cfg.ReturnStream(stream)
    stream.WriteVal(v)
    if stream.Error != nil {
        return nil, stream.Error
    }
    result := stream.Buffer()
    copied := make([]byte, len(result))
    copy(copied, result)
    return copied, nil
}

既然要用 buffer 那就一塊兒吧^_^,這樣能夠減小屢次內存分配,下讀取 http.Response.Body 以前必定要記得 buffer.Reset(), 這樣基本就已經完成了 http.Request.Bodyhttp.Response.Body 的數據讀取優化了,具體效果等上線跑一段時間穩定以後來查看吧。

效果分析

上線跑了一天,來看看效果吧

$ go tool pprof allocs2
File: connect_server
Type: alloc_space
Time: Jan 26, 2019 at 10:27am (CST)
Entering interactive mode (type "help" for commands, "o" for options)
(pprof) top
Showing nodes accounting for 295.40GB, 40.62% of 727.32GB total
Dropped 738 nodes (cum <= 3.64GB)
Showing top 10 nodes out of 174
      flat  flat%   sum%        cum   cum%
   73.52GB 10.11% 10.11%    73.52GB 10.11%  git.tvblack.com/tvblack/connect_server/vendor/github.com/sirupsen/logrus.(*Entry).WithFields
   31.70GB  4.36% 14.47%    31.70GB  4.36%  net/url.unescape
   27.49GB  3.78% 18.25%    54.87GB  7.54%  git.tvblack.com/tvblack/connect_server/models.LogItemsToBytes
   27.41GB  3.77% 22.01%    27.41GB  3.77%  strings.Join
   25.04GB  3.44% 25.46%    25.04GB  3.44%  bufio.NewWriterSize
   24.81GB  3.41% 28.87%    24.81GB  3.41%  bufio.NewReaderSize
   23.91GB  3.29% 32.15%    23.91GB  3.29%  regexp.(*bitState).reset
   23.06GB  3.17% 35.32%    23.06GB  3.17%  math/big.nat.make
   19.90GB  2.74% 38.06%    20.35GB  2.80%  git.tvblack.com/tvblack/connect_server/vendor/github.com/json-iterator/go.(*Iterator).readStringSlowPath
   18.58GB  2.56% 40.62%    19.12GB  2.63%  net/textproto.(*Reader).ReadMIMEHeader

哇塞 bytes.makeSlice 終於從前十中消失了,真的太棒了,仍是看看 bytes.makeSlice 的其它調用狀況吧。

(pprof) web bytes.makeSlice

圖片描述

從圖中能夠發現 bytes.makeSlice 的分配已經很小了, 且大多數是 http.Request.ParseForm 讀取 http.Request.Body 使用 ioutil.ReadAll 緣由,此次優化的效果很是的好。

看一下更直觀的火焰圖🔥吧,和優化前對比一下很明顯 ioutil.ReadAll 看不到了

圖片描述

優化期間遇到的問題

比較慚愧在優化的過程出現了一個過失,致使生產環境2分鐘故障,經過自動部署當即回滾才得以快速恢復,以後分析代碼解決以後上線才完美優化,下面總結一下出現的問題吧。

在構建 http 請求時我分了兩個部分優化,序列化 json 和讀取 http.Response.Body 數據,保持一個觀點就是儘早把 buffer 放回到緩衝池,由於 http.DefaultClient.Do(req) 是網絡請求會相對耗時,在這個以前我把 buffer 放回到緩衝池中,以後讀取 http.Response.Body 時在從新獲取一個 buffer,大概代碼以下:

package adapter

import (
    "bytes"
    "fmt"
    "io"
    "io/ioutil"
    "net/http"
    "sync"

    "github.com/json-iterator/go"
    "github.com/sirupsen/logrus"
    "github.com/thinkeridea/go-extend/exbytes"
)

type Adapter struct {
    pool sync.Pool
}

func New() *Adapter {
    return &Adapter{
        pool: sync.Pool{
            New: func() interface{} {
                return bytes.NewBuffer(make([]byte, 4096))
            },
        },
    }
}

func (api *Adapter) Request(r *Request) (*Response, error) {
    var err error
    buffer := api.pool.Get().(*bytes.Buffer)
    buffer.Reset()
    defer func() {
        if buffer != nil {
            api.pool.Put(buffer)
            buffer = nil
        }
    }()

    e := jsoniter.NewEncoder(buffer)
    err = e.Encode(r)
    if err != nil {
        return nil, fmt.Errorf("jsoniter.Marshal failure: %v", err)
    }

    data := buffer.Bytes()
    req, err := http.NewRequest("POST", "http://xxx.com", buffer)
    if err != nil {
        return nil, fmt.Errorf("http.NewRequest failed: %v", err)
    }

    req.Header.Set("User-Agent", "xxx")

    api.pool.Put(buffer)
    buffer = nil
    
    httpResponse, err := http.DefaultClient.Do(req)
    
    
    // ....

    buffer = api.pool.Get().(*bytes.Buffer)
    buffer.Reset()
    defer func() {
        if buffer != nil {
            api.pool.Put(buffer)
            buffer = nil
        }
    }()
    _, err = io.Copy(buffer, httpResponse.Body)
    if err != nil {
        return nil, fmt.Errorf("adapter io.copy failure error:%v", err)
    }

    // ....
    
    api.pool.Put(buffer)
    buffer = nil

    // ...
    return res, nil
}

上線以後立刻發生了錯誤 http: ContentLength=2090 with Body length 0 發送請求的時候從 buffer 讀取數據發現數據不見了或者數據不夠了,我去這是什麼鬼,立刻回滾恢復業務,而後分析 http.DefaultClient.Do(req)http.NewRequest,在調用 http.NewRequest 是並無從 buffer 讀取數據,而只是建立了一個 req.GetBody 以後在 http.DefaultClient.Do 是纔讀取數據,由於在 http.DefaultClient.Do 以前把 buffer 放回到緩衝池中,其它 goroutine 獲取到 buffer 並進行 Reset 就發生了數據爭用,固然會致使數據讀取不完整了,真實汗顏,對 http.Client 瞭解太少,爭取有空擼一遍源碼。

總結

使用合適大小的 buffer 來減小內存分配,sync.Pool 能夠幫助複用 buffer, 必定要本身寫這些邏輯,避免使用三方包,三方包即便使用一樣的技巧爲了不數據爭用,在返回數據時候必然會拷貝一個新的數據返回,就像 jsoniter 雖然使用了 sync.Poolbuffer 可是返回數據時還須要拷貝,另外這種通用包並不能給一個很是貼合業務的初始 buffer 大小,太小會致使數據發生拷貝,過大會太過浪費內存。

程序中善用 buffersync.Pool 能夠大大的改善程序的性能,而且這兩個組合在一塊兒使用很是的簡單,並不會使代碼變的複雜。

轉載:

本文做者: 戚銀(thinkeridea

本文連接: https://blog.thinkeridea.com/201901/go/you_ya_de_du_qu_http_qing_qiu_huo_xiang_ying_de_shu_ju.html

版權聲明: 本博客全部文章除特別聲明外,均採用 CC BY 4.0 CN協議 許可協議。轉載請註明出處!

相關文章
相關標籤/搜索