系列文章:Kubernetes日誌採集最佳實踐

前言html


上一期主要介紹Kubernetes日誌輸出的一些注意事項,日誌輸出最終的目的仍是作統一的採集和分析。在Kubernetes中,日誌採集和普通虛擬機的方式有很大不一樣,相對實現難度和部署代價也略大,但若使用恰當則比傳統方式自動化程度更高、運維代價更低。node

Kubernetes日誌採集難點web


在Kubernetes中,日誌採集相比傳統虛擬機、物理機方式要複雜不少,最根本的緣由是Kubernetes把底層異常屏蔽,提供更加細粒度的資源調度,向上提供穩定、動態的環境。所以日誌採集面對的是更加豐富、動態的環境,須要考慮的點也更加的多。docker

例如:緩存

  1. 對於運行時間很短的Job類應用,從啓動到中止只有幾秒的時間,如何保證日誌採集的實時性可以跟上並且數據不丟?
  2. K8s通常推薦使用大規格節點,每一個節點能夠運行10-100+的容器,如何在資源消耗盡量低的狀況下采集100+的容器?
  3. 在K8s中,應用都以yaml的方式部署,而日誌採集仍是以手工的配置文件形式爲主,如何可以讓日誌採集以K8s的方式進行部署?

Kubernetes傳統方式日誌種類文件、stdout、宿主機文件、journal文件、journal日誌源業務容器、系統組件、宿主機業務、宿主機採集方式Agent(Sidecar、DaemonSet)、直寫(DockerEngine、業務)Agent、直寫單機應用數10-1001-10應用動態性高低節點動態性高低採集部署方式手動、Yaml手動、自定義運維

採集方式:主動 or 被動異步


日誌的採集方式分爲被動採集和主動推送兩種,在K8s中,被動採集通常分爲Sidecar和DaemonSet兩種方式,主動推送有DockerEngine推送和業務直寫兩種方式。ide

  • DockerEngine自己具備LogDriver功能,可經過配置不一樣的LogDriver將容器的stdout經過DockerEngine寫入到遠端存儲,以此達到日誌採集的目的。這種方式的可定製化、靈活性、資源隔離性都很低,通常不建議在生產環境中使用。
  • 業務直寫是在應用中集成日誌採集的SDK,經過SDK直接將日誌發送到服務端。這種方式省去了落盤採集的邏輯,也不須要額外部署Agent,對於系統的資源消耗最低,但因爲業務和日誌SDK強綁定,總體靈活性很低,通常只有日誌量極大的場景中使用。
  • DaemonSet方式在每一個node節點上只運行一個日誌agent,採集這個節點上全部的日誌。DaemonSet相對資源佔用要小不少,但擴展性、租戶隔離性受限,比較適用於功能單一或業務不是不少的集羣。
  • Sidecar方式爲每一個POD單獨部署日誌agent,這個agent只負責一個業務應用的日誌採集。Sidecar相對資源佔用較多,但靈活性以及多租戶隔離性較強,建議大型的K8S集羣或做爲PAAS平臺爲多個業務方服務的集羣使用該方式。

總結下來:DockerEngine直寫通常不推薦;業務直寫推薦在日誌量極大的場景中使用;DaemonSet通常在中小型集羣中使用;Sidecar推薦在超大型的集羣中使用。詳細的各類採集方式對好比下:性能

DockerEngine業務直寫DaemonSet方式Sidecar方式採集日誌類型標準輸出業務日誌標準輸出+部分文件文件部署運維低,原生支持低,只需維護好配置文件便可通常,需維護DaemonSet較高,每一個須要採集日誌的POD都須要部署sidecar容器日誌分類存儲沒法實現業務獨立配置通常,可經過容器/路徑等映射每一個POD可單獨配置,靈活性高多租戶隔離弱弱,日誌直寫會和業務邏輯競爭資源通常,只能經過配置間隔離強,經過容器進行隔離,可單獨分配資源支持集羣規模本地存儲無限制,若使用syslog、fluentd會有單點限制無限制取決於配置數無限制資源佔用低,dockerengine提供總體最低,省去採集開銷較低,每一個節點運行一個容器較高,每一個POD運行一個容器查詢便捷性低,只能grep原始日誌高,可根據業務特色進行定製較高,可進行自定義的查詢、統計高,可根據業務特色進行定製可定製性低高,可自由擴展低高,每一個POD單獨配置耦合度高,與DockerEngine強綁定,修改須要重啓DockerEngine高,採集模塊修改/升級須要從新發布業務低,Agent可獨立升級通常,默認採集Agent升級對應Sidecar業務也會重啓(有一些擴展包能夠支持Sidecar熱升級)適用場景測試、POC等非生產場景對性能要求極高的場景日誌分類明確、功能較單一的集羣大型、混合型、PAAS型集羣學習

日誌輸出:Stdout or 文件


和虛擬機/物理機不一樣,K8s的容器提供標準輸出和文件兩種方式。在容器中,標準輸出將日誌直接輸出到stdout或stderr,而DockerEngine接管stdout和stderr文件描述符,將日誌接收後按照DockerEngine配置的LogDriver規則進行處理;日誌打印到文件的方式和虛擬機/物理機基本相似,只是日誌可使用不一樣的存儲方式,例如默認存儲、EmptyDir、HostVolume、NFS等。

雖然使用Stdout打印日誌是Docker官方推薦的方式,但你們須要注意這個推薦是基於容器只做爲簡單應用的場景,實際的業務場景中咱們仍是建議你們儘量使用文件的方式,主要的緣由有如下幾點:

  1. Stdout性能問題,從應用輸出stdout到服務端,中間會通過好幾個流程(例如廣泛使用的JSON LogDriver):應用stdout -> DockerEngine -> LogDriver -> 序列化成JSON -> 保存到文件 -> Agent採集文件 -> 解析JSON -> 上傳服務端。整個流程相比文件的額外開銷要多不少,在壓測時,每秒10萬行日誌輸出就會額外佔用DockerEngine 1個CPU核。
  2. Stdout不支持分類,即全部的輸出都混在一個流中,沒法像文件同樣分類輸出,一般一個應用中有AccessLog、ErrorLog、InterfaceLog(調用外部接口的日誌)、TraceLog等,而這些日誌的格式、用途不一,若是混在同一個流中將很難採集和分析。
  3. Stdout只支持容器的主程序輸出,若是是daemon/fork方式運行的程序將沒法使用stdout。
  4. 文件的Dump方式支持各類策略,例如同步/異步寫入、緩存大小、文件輪轉策略、壓縮策略、清除策略等,相對更加靈活。

所以咱們建議線上應用使用文件的方式輸出日誌,Stdout只在功能單一的應用或一些K8s系統/運維組件中使用。

CICD集成:Logging Operator


Kubernetes提供了標準化的業務部署方式,能夠經過yaml(K8s API)來聲明路由規則、暴露服務、掛載存儲、運行業務、定義縮擴容規則等,因此Kubernetes很容易和CICD系統集成。而日誌採集也是運維監控過程當中的重要部分,業務上線後的全部日誌都要進行實時的收集。

原始的方式是在發佈以後手動去部署日誌採集的邏輯,這種方式須要手工干預,違背CICD自動化的宗旨;爲了實現自動化,有人開始基於日誌採集的API/SDK包裝一個自動部署的服務,在發佈後經過CICD的webhook觸發調用,但這種方式的開發代價很高。

在Kubernetes中,日誌最標準的集成方式是以一個新資源註冊到Kubernetes系統中,以Operator(CRD)的方式來進行管理和維護。在這種方式下,CICD系統不須要額外的開發,只需在部署到Kubernetes系統時附加上日誌相關的配置便可實現。

Kubernetes日誌採集方案


早在Kubernetes出現以前,咱們就開始爲容器環境開發日誌採集方案,隨着K8s的逐漸穩定,咱們開始將不少業務遷移到K8s平臺上,所以也基於以前的基礎專門開發了一套K8s上的日誌採集方案。主要具有的功能有:

  1. 支持各種數據的實時採集,包括容器文件、容器Stdout、宿主機文件、Journal、Event等;
  2. 支持多種採集部署方式,包括DaemonSet、Sidecar、DockerEngine LogDriver等;
  3. 支持對日誌數據進行富化,包括附加Namespace、Pod、Container、Image、Node等信息;
  4. 穩定、高可靠,基於阿里自研的Logtail採集Agent實現,目前全網已有幾百萬的部署實例;
  5. 基於CRD進行擴展,可以使用Kubernetes部署發佈的方式來部署日誌採集規則,與CICD完美集成。

安裝日誌採集組件


目前這套採集方案已經對外開放,咱們提供了一個Helm安裝包,其中包括Logtail的DaemonSet、AliyunlogConfig的CRD聲明以及CRD Controller,安裝以後就能直接使用DaemonSet採集以及CRD配置了。安裝方式以下:

  1. 阿里雲Kubernetes集羣在開通的時候能夠勾選安裝,這樣在集羣建立的時候會自動安裝上述組件。若是開通的時候沒有安裝,則能夠手動安裝
  2. 若是是自建的Kubernetes,不管是在阿里雲上自建仍是在其餘雲或者是線下,也可使用這樣採集方案,具體安裝方式參考[自建Kubernetes安裝]()。

安裝好上述組件以後,Logtail和對應的Controller就會運行在集羣中,但默認這些組件並不會採集任何日誌,須要配置日誌採集規則來採集指定Pod的各種日誌。

採集規則配置:環境變量 or CRD


除了在日誌服務控制檯上手動配置以外,對於Kubernetes還額外支持兩種配置方式:環境變量和CRD。

環境變量是自swarm時代一直使用的配置方式,只須要在想要採集的容器環境變量上聲明須要採集的數據地址便可,Logtail會自動將這些數據採集到服務端。這種方式部署簡單,學習成本低,很容易上手;但可以支持的配置規則不多,不少高級配置(例如解析方式、過濾方式、黑白名單等)都不支持,並且這種聲明的方式不支持修改/刪除,每次修改其實都是建立1個新的採集配置,歷史的採集配置須要手動清理,不然會形成資源浪費。

CRD配置方式是很是符合Kubernetes官方推薦的標準擴展方式,讓採集配置以K8s資源的方式進行管理,經過向Kubernetes部署AliyunLogConfig這個特殊的CRD資源來聲明須要採集的數據。例以下面的示例就是部署一個容器標準輸出的採集,其中定義須要Stdout和Stderr都採集,而且排除環境變量中包含COLLEXT_STDOUT_FLAG:false的容器。 基於CRD的配置方式以Kubernetes標準擴展資源的方式進行管理,支持配置的增刪改查完整語義,並且支持各類高級配置,是咱們極其推薦的採集配置方式。

採集規則推薦的配置方式



實際應用場景中,通常都是使用DaemonSet或DaemonSet與Sidecar混用方式,DaemonSet的優點是資源利用率高,但有一個問題是DaemonSet的全部Logtail都共享全局配置,而單一的Logtail有配置支撐的上限,所以沒法支撐應用數比較多的集羣。 上述是咱們給出的推薦配置方式,核心的思想是:

  1. 一個配置儘量多的採集同類數據,減小配置數,下降DaemonSet壓力;
  2. 核心的應用採集要給予充分的資源,可使用Sidecar方式;
  3. 配置方式儘量使用CRD方式;
  4. Sidecar因爲每一個Logtail是單獨的配置,因此沒有配置數的限制,這種比較適合於超大型的集羣使用。

實踐1-中小型集羣


絕大部分Kubernetes集羣都屬於中小型的,對於中小型沒有明確的定義,通常應用數在500之內,節點規模1000之內,沒有職能明確的Kubernetes平臺運維。這種場景應用數不會特別多,DaemonSet能夠支撐全部的採集配置:

  1. 絕大部分業務應用的數據使用DaemonSet採集方式
  2. 核心應用(對於採集可靠性要求比較高,例如訂單/交易系統)使用Sidecar方式單獨採集

實踐2-大型集羣


對於一些用做PAAS平臺的大型/超大型集羣,通常業務在1000以上,節點規模也在1000以上,有專門的Kubernetes平臺運維人員。這種場景下應用數沒有限制,DaemonSet沒法支持,所以必須使用Sidecar方式,總體規劃以下:

  1. Kubernetes平臺自己的系統組件日誌、內核日誌相對種類固定,這部分日誌使用DaemonSet採集,主要爲平臺的運維人員提供服務;
  2. 各個業務的日誌使用Sidecar方式採集,每一個業務能夠獨立設置Sidecar的採集目的地址,爲業務的DevOps人員提供足夠的靈活性。

上雲就看雲棲號:更多雲資訊,上雲案例,最佳實踐,產品入門,訪問:https://yqh.aliyun.com/

本文爲阿里雲原創內容,未經容許不得轉載。

相關文章
相關標籤/搜索