本博客是深刻研究Envoy Proxy和Istio.io 以及它如何實現更優雅的方式來鏈接和管理微服務系列文章的一部分。html
這是接下來幾個部分的想法(將在發佈時更新連接):git
Envoy經過兩個過濾器與Ratelimit服務集成:github
http rate limiter 當請求的路由或虛擬主機具備與過濾器階段設置匹配的一個或多個速率限制配置時,HTTP速率限制過濾器將調用速率限制服務。該路由能夠選擇包括虛擬主機速率限制配置。多個配置能夠應用於請求。每一個配置都會致使將描述符發送到速率限制服務。golang
若是調用速率限制服務,而且任何描述符的響應超出限制,則返回429響應。速率限制過濾器還設置x-envoy-ratelimited標頭。算法
果在呼叫速率限制服務中出現錯誤或速率限制服務返回錯誤而且failure_mode_deny設置爲true,則返回500響應。數據庫
所有的配置以下:api
envoy.yaml: |- static_resources: listeners: - address: socket_address: address: 0.0.0.0 port_value: 8000 filter_chains: - filters: - name: envoy.http_connection_manager config: codec_type: auto stat_prefix: ingress_http access_log: - name: envoy.file_access_log config: path: "/dev/stdout" format: "[ACCESS_LOG][%START_TIME%] \"%REQ(:METHOD)% %REQ(X-ENVOY-ORIGINAL-PATH?:PATH)% %PROTOCOL%\" %RESPONSE_CODE% %RESPONSE_FLAGS% %BYTES_RECEIVED% %BYTES_SENT% %DURATION% %RESP(X-ENVOY-UPSTREAM-SERVICE-TIME)% \"%REQ(X-FORWARDED-FOR)%\" \"%REQ(USER-AGENT)%\" \"%REQ(X-REQUEST-ID)%\" \"%REQ(:AUTHORITY)%\" \"%UPSTREAM_HOST%\" \"%DOWNSTREAM_REMOTE_ADDRESS_WITHOUT_PORT%\"\n" route_config: name: local_route virtual_hosts: - name: gateway domains: - "*" routes: - match: prefix: "/cost" route: cluster: cost rate_limits: # enable rate limit checks for the greeter service actions: - destination_cluster: {} http_filters: - name: envoy.rate_limit # enable the Rate Limit filter config: domain: envoy - name: envoy.router config: {} clusters: - name: cost connect_timeout: 0.25s type: strict_dns lb_policy: round_robin hosts: - socket_address: address: cost.sgt port_value: 80 - name: rate_limit_cluster type: strict_dns connect_timeout: 0.25s lb_policy: round_robin http2_protocol_options: {} hosts: - socket_address: address: limiter.sgt port_value: 80 rate_limit_service: grpc_service: envoy_grpc: cluster_name: rate_limit_cluster timeout: 0.25s admin: access_log_path: "/dev/null" address: socket_address: address: 0.0.0.0 port_value: 9000
經過配置文件能夠看出,本demo設置的是一個全局的http filter rate limiter。bash
儘管分佈式熔斷一般在控制分佈式系統中的吞吐量方面很是有效,但有時它不是很是有效而且須要全局速率限制。最多見的狀況是當大量主機轉發到少許主機而且平均請求延遲較低時(例如,對數據庫服務器的鏈接/請求)。若是目標主機已備份,則下游主機將淹沒上游羣集。在這種狀況下,在每一個下游主機上配置足夠嚴格的斷路限制是很是困難的,這樣系統在典型的請求模式期間將正常運行,但在系統開始出現故障時仍能防止級聯故障。全局速率限制是這種狀況的一個很好的解決方案。服務器
Envoy直接經過gRPC與速率限制服務集成。Envoy要求速率限制服務支持rls.proto中指定的gRPC IDL。有關API如何工做的更多信息,請參閱IDL文檔。dom
自己envoy 只是提供了限流的接口,沒有具體的實現,因此必須本身實現一個限流器。下面只是簡單實現一下,給你們一個思路。
具體的代碼以下:
package main import ( "log" "net" "time" rls "github.com/envoyproxy/go-control-plane/envoy/service/ratelimit/v2" "github.com/juju/ratelimit" "golang.org/x/net/context" "google.golang.org/grpc" "google.golang.org/grpc/reflection" ) // server is used to implement rls.RateLimitService type server struct { bucket *ratelimit.Bucket } func (s *server) ShouldRateLimit(ctx context.Context, request *rls.RateLimitRequest) (*rls.RateLimitResponse, error) { // logic to rate limit every second request var overallCode rls.RateLimitResponse_Code if s.bucket.TakeAvailable(1) == 0 { overallCode = rls.RateLimitResponse_OVER_LIMIT } else { overallCode = rls.RateLimitResponse_OK } response := &rls.RateLimitResponse{OverallCode: overallCode} return response, nil } func main() { // create a TCP listener on port 8089 lis, err := net.Listen("tcp", ":8089") if err != nil { log.Fatalf("failed to listen: %v", err) } log.Printf("listening on %s", lis.Addr()) // create a gRPC server and register the RateLimitService server s := grpc.NewServer() rls.RegisterRateLimitServiceServer(s, &server{ bucket: ratelimit.NewBucket(100*time.Microsecond, 100), }) reflection.Register(s) if err := s.Serve(lis); err != nil { log.Fatalf("failed to serve: %v", err) } }
具體項目,查閱github。
PS:
本文簡單講了envoy的 rate limit功能,提供了全侷限流的配置文件,並簡單實現了一個基於令牌桶的限流器。但願能幫助你理解Envoy的限速過濾器如何跟gRPC協議協同工做。