ClickHouse大數據領域企業級應用實踐和探索總結

ClickHouse大數據領域企業級應用實踐和探索總結

大數據技術與架構 大數據技術與架構git

ClickHouse大數據領域企業級應用實踐和探索總結

ClickHouse簡介

2020年下半年在OLAP領域有一匹黑馬以席捲之勢進入大數據開發者的領域,它就是ClickHouse。在2019年小編也曾介紹過ClickHouse,你們能夠參考這裏進行入門:github

來自俄羅斯的兇猛彪悍的分析數據庫-ClickHouse
基於ClickHouse的用戶行爲分析實踐
Prometheus+Clickhouse實現業務告警算法

那麼咱們有必要先從全局瞭解一下ClickHouse究竟是個什麼樣的數據庫?
ClickHouse是一個開源的,面向列的分析數據庫,由Yandex爲OLAP和大數據用例建立。ClickHouse對實時查詢處理的支持使其適用於須要亞秒級分析結果的應用程序。ClickHouse的查詢語言是SQL的一種方言,它支持強大的聲明性查詢功能,同時爲最終用戶提供熟悉度和較小的學習曲線。
ClickHouse全稱是Click Stream,Data Warehouse,簡稱ClickHouse就是基於頁面的點擊事件流,面向數據倉庫進行OLAP分析。ClickHouse是一款開源的數據分析數據庫,由戰鬥民族俄羅斯Yandex公司研發的,Yandex是作搜索引擎的,就相似與Google,百度等。
咱們都知道搜索引擎的營收主要來源與流量和廣告業務,因此搜索引擎公司會着重分析用戶網路流量,像Google有Anlytics,百度有百度統計,那麼Yandex就對應於Yandex.Metrica。ClickHouse就式在Yandex.Metrica下產生的技術。
面向列的數據庫將記錄存儲在按列而不是行分組的塊中。經過不加載查詢中不存在的列的數據,面向列的數據庫在完成查詢時花費的時間更少。所以,對於某些工做負載(如OLAP),這些數據庫能夠比傳統的基於行的系統更快地計算和返回結果。sql

爲何ClickHouse可以異軍突起

優異的性能

根據官網的介紹(https://clickhouse.tech/benchmark/dbms/),ClickHouse在相同的服務器配置與數據量下,平均響應速度數據庫

  • Vertica的2.63倍(Vertica是一款收費的列式存儲數據庫)
  • InfiniDB的17倍(可伸縮的分析數據庫引擎,基於Mysql搭建)
  • MonetDB的27倍(開源的列式數據庫)
  • Hive的126倍
  • MySQL的429倍
  • Greenplum的10倍
  • Spark的1倍
    性能是衡量 OLAP 數據庫的關鍵指標,咱們能夠經過 ClickHouse 官方測試結果感覺下 ClickHouse 的極致性能,其中綠色表明性能最佳,紅色表明性能較差,紅色越深表明性能越弱。
    ClickHouse大數據領域企業級應用實踐和探索總結
    咱們在以前用了一篇文章《數據告訴你ClickHouse有多快》 詳細講解了 ClickHouse的優異性能表現。

    優點和侷限性

    ClickHouse主要特色:設計模式

  • ROLAP(關係型的聯機分析處理,和它一塊兒比較的還有OLTP聯機事務處理,咱們常見的ERP,CRM系統就屬於OLTP)
  • 在線實時查詢
  • 完整的DBMS(關係數據庫)
  • 列式存儲(區別與HBase,ClickHouse的是徹底列式存儲,HBase具體說是列族式存儲)
  • 不須要任何數據預處理
  • 支持批量更新
  • 擁有完善的SQl支持和函數
  • 支持高可用(多主結構,在後面的結構設計中會講到)
  • 不依賴Hadoop複雜生態(像ES同樣,開箱即用)
    一些不足:
  • 不支持事務(這其實也是大部分OLAP數據庫的缺點)
  • 不擅長根據主鍵按行粒度查詢(可是支持這種操做)
  • 不擅長按行刪除數據(可是支持這種操做)

    核心概念和原理

ClickHouse 採用了典型的分組式的分佈式架構,集羣架構以下圖所示:
ClickHouse大數據領域企業級應用實踐和探索總結
這其中的角色包括:安全

  • Shard :集羣內劃分爲多個分片或分組(Shard 0 … Shard N),經過 Shard 的線性擴展能力,支持海量數據的分佈式存儲計算。
  • Node :每一個 Shard 內包含必定數量的節點(Node,即進程),同一 Shard 內的節點互爲副本,保障數據可靠。ClickHouse 中副本數可按需建設,且邏輯上不一樣 Shard 內的副本數可不一樣。
  • ZooKeeper Service :集羣全部節點對等,節點間經過 ZooKeeper 服務進行分佈式協調。

    ClickHouse基礎架構以下圖所示:

    ClickHouse大數據領域企業級應用實踐和探索總結

  • Column與Field
    Column和Field是ClickHouse數據最基礎的映射單元。內存中的一列數據由一個Column對象表示。Column對象分爲接口和實現兩個部分,在IColumn接口對象中,定義了對數據進行各類關係運算的方法。在大多數場合,ClickHouse都會以整列的方式操做數據,但凡事也有例外。若是須要操做單個具體的數值 ( 也就是單列中的一行數據 ),則須要使用Field對象,Field對象表明一個單值。與Column對象的泛化設計思路不一樣,Field對象使用了聚合的設計模式。在Field對象內部聚合了Null、UInt6四、String和Array等13種數據類型及相應的處理邏輯。
  • DataType
    數據的序列化和反序列化工做由DataType負責。IDataType接口定義了許多正反序列化的方法,它們成對出現。IDataType也使用了泛化的設計模式,具體方法的實現邏輯由對應數據類型的實例承載。DataType雖然負責序列化相關工做,但它並不直接負責數據的讀取,而是轉由從Column或Field對象獲取。
  • Block與Block流
    ClickHouse內部的數據操做是面向Block對象進行的,而且採用了流的形式。Block對象能夠看做數據表的子集。Block對象的本質是由數據對象、數據類型和列名稱組成的三元組,即Column、DataType及列名稱字符串。僅經過Block對象就能完成一系列的數據操做。Block並無直接聚合Column和DataType對象,而是經過ColumnWithTypeAndName對象進行間接引用。Block流操做有兩組頂層接口:IBlockInputStream負責數據的讀取和關係運算,IBlockOutputStream負責將數據輸出到下一環節。IBlockInputStream接口定義了讀取數據的若干個read虛方法,而具體的實現邏輯則交由它的實現類來填充。IBlockInputStream接口總共有60多個實現類,這些實現類大體能夠分爲三類:
  • 第一類用於處理數據定義的DDL操做
  • 第二類用於處理關係運算的相關操做
  • 第三類則是與表引擎呼應,每一種表引擎都擁有與之對應的BlockInputStream實現
    IBlockOutputStream的設計與IBlockInputStream一模一樣。這些實現類基本用於表引擎的相關處理,負責將數據寫入下一環節或者最終目的地。
  • Table
    在數據表的底層設計中並無所謂的Table對象,它直接使用IStorage接口指代數據表。表引擎是ClickHouse的一個顯著特性,不一樣的表引擎由不一樣的子類實現。IStorage接口負責數據的定義、查詢與寫入。IStorage負責根據AST查詢語句的指示要求,返回指定列的原始數據。後續的加工、計算和過濾則由下面介紹的部分進行。
  • Parser與Interpreter
    Parser分析器負責建立AST對象;而Interpreter解釋器則負責解釋AST,並進一步建立查詢的執行管道。它們與IStorage一塊兒,串聯起了整個數據查詢的過程。Parser分析器能夠將一條SQL語句以遞歸降低的方法解析成AST語法樹的形式。不一樣的SQL語句,會經由不一樣的Parser實現類解析。Interpreter解釋器的做用就像Service服務層同樣,起到串聯整個查詢過程的做用,它會根據解釋器的類型,聚合它所須要的資源。首先它會解析AST對象;而後執行"業務邏輯" ( 例如分支判斷、設置參數、調用接口等 );最終返回IBlock對象,以線程的形式創建起一個查詢執行管道。
  • Functions 與Aggregate Functions
    ClickHouse主要提供兩類函數—普通函數(Functions)和聚合函數(Aggregate Functions)。普通函數由IFunction接口定義,擁有數十種函數實現,採用向量化的方式直接做用於一整列數據。聚合函數由IAggregateFunction接口定義,相比無狀態的普通函數,聚合函數是有狀態的。以COUNT聚合函數爲例,其AggregateFunctionCount的狀態使用整型UInt64記錄。聚合函數的狀態支持序列化與反序列化,因此可以在分佈式節點之間進行傳輸,以實現增量計算。
  • Cluster與Replication
    ClickHouse的集羣由分片 ( Shard ) 組成,而每一個分片又經過副本 ( Replica ) 組成。這種分層的概念,在一些流行的分佈式系統中十分廣泛。這裏有幾個不同凡響的特性。ClickHouse的1個節點只能擁有1個分片,也就是說若是要實現1分片、1副本,則至少須要部署2個服務節點。分片只是一個邏輯概念,其物理承載仍是由副本承擔的。

    ClickHouse的核心特性

ClickHouse的特性有不少,一款被承認的OLAP引擎可以獲得你們的頻繁使用必定是有獨特的特性,小編列舉了幾個ClickHouse異於常人的特性:
列式存儲&數據壓縮
按列存儲與按行存儲相比,前者能夠有效減小查詢時所需掃描的數據量,這一點能夠用一個示例簡單說明。假設一張數據表A擁有50個字段A1~A50,以及100行數據。如今須要查詢前5個字段並進行數據分析,那麼經過列存儲,咱們僅需讀取必要的列數據,相比於普通行存,可減小 10 倍左右的讀取、解壓、處理等開銷,對性能會有質的影響。
若是數據按行存儲,數據庫首先會逐行掃描,並獲取每行數據的全部50個字段,再從每一行數據中返回A1~A5這5個字段。不難發現,儘管只須要前面的5個字段,但因爲數據是按行進行組織的,實際上仍是掃描了全部的字段。若是數據按列存儲,就不會發生這樣的問題。因爲數據按列組織,數據庫能夠直接獲取A1~A5這5列的數據,從而避免了多餘的數據掃描。
按列存儲相比按行存儲的另外一個優點是對數據壓縮的友好性。ClickHouse的數據按列進行組織,屬於同一列的數據會被保存在一塊兒,列與列之間也會由不一樣的文件分別保存 ( 這裏主要指MergeTree表引擎 )。數據默認使用LZ4算法壓縮,在Yandex.Metrica的生產環境中,數據整體的壓縮比能夠達到8:1 ( 未壓縮前17PB,壓縮後2PB )。列式存儲除了下降IO和存儲的壓力以外,還爲向量化執行作好了鋪墊。性能優化

向量化執行

坊間有句玩笑,即"能用錢解決的問題,千萬別花時間"。而業界也有種調侃一模一樣,即"能升級硬件解決的問題,千萬別優化程序"。有時候,你千辛萬苦優化程序邏輯帶來的性能提高,還不如直接升級硬件來得簡單直接。這雖然只是一句玩笑不能當真,但硬件層面的優化確實是最直接、最高效的提高途徑之一。向量化執行就是這種方式的典型表明,這項寄存器硬件層面的特性,爲上層應用程序的性能帶來了指數級的提高。
向量化執行,能夠簡單地看做一項消除程序中循環的優化。這裏用一個形象的例子比喻。小胡經營了一家果汁店,雖然店裏的鮮榨蘋果汁深受你們喜好,但客戶老是抱怨製做果汁的速度太慢。小胡的店裏只有一臺榨汁機,每次他都會從籃子裏拿出一個蘋果,放到榨汁機內等待出汁。若是有8個客戶,每一個客戶都點了一杯蘋果汁,那麼小鬍鬚要重複循環8次上述的榨汁流程,才能榨出8杯蘋果汁。若是製做一杯果汁須要5分鐘,那麼所有制做完畢則須要40分鐘。爲了提高果汁的製做速度,小胡想出了一個辦法。他將榨汁機的數量從1臺增長到了8臺,這麼一來,他就能夠從籃子裏一次性拿出8個蘋果,分別放入8臺榨汁機同時榨汁。此時,小胡只須要5分鐘就可以製做出8杯蘋果汁。爲了製做n杯果汁,非向量化執行的方式是用1臺榨汁機重複循環制做n次,而向量化執行的方式是用n臺榨汁機只執行1次。
爲了實現向量化執行,須要利用CPU的SIMD指令。SIMD的全稱是Single Instruction Multiple Data,即用單條指令操做多條數據。現代計算機系統概念中,它是經過數據並行以提升性能的一種實現方式 ( 其餘的還有指令級並行和線程級並行 ),它的原理是在CPU寄存器層面實現數據的並行操做。
在計算機系統的體系結構中,存儲系統是一種層次結構。典型服務器計算機的存儲層次結構如圖1所示。一個實用的經驗告訴咱們,存儲媒介距離CPU越近,則訪問數據的速度越快。
ClickHouse大數據領域企業級應用實踐和探索總結
從上圖中能夠看到,從左向右,距離CPU越遠,則數據的訪問速度越慢。從寄存器中訪問數據的速度,是從內存訪問數據速度的300倍,是從磁盤中訪問數據速度的3000萬倍。因此利用CPU向量化執行的特性,對於程序的性能提高意義非凡。
ClickHouse目前利用SSE4.2指令集實現向量化執行。服務器

關係模型與SQL查詢

相比HBase和Redis這類NoSQL數據庫,ClickHouse使用關係模型描述數據並提供了傳統數據庫的概念 ( 數據庫、表、視圖和函數等 )。與此同時,ClickHouse徹底使用SQL做爲查詢語言 ( 支持GROUP BY、ORDER BY、JOIN、IN等大部分標準SQL ),這使得它平易近人,容易理解和學習。由於關係型數據庫和SQL語言,能夠說是軟件領域發展至今應用最爲普遍的技術之一,擁有極高的"羣衆基礎"。也正由於ClickHouse提供了標準協議的SQL查詢接口,使得現有的第三方分析可視化系統能夠輕鬆與它集成對接。在SQL解析方面,ClickHouse是大小寫敏感的,這意味着SELECT a 和 SELECT A所表明的語義是不一樣的。
關係模型相比文檔和鍵值對等其餘模型,擁有更好的描述能力,也可以更加清晰地表述實體間的關係。更重要的是,在OLAP領域,已有的大量數據建模工做都是基於關係模型展開的 ( 星型模型、雪花模型乃至寬表模型 )。ClickHouse使用了關係模型,因此將構建在傳統關係型數據庫或數據倉庫之上的系統遷移到ClickHouse的成本會變得更低,能夠直接沿用以前的經驗成果。網絡

多樣化的表引擎

也許由於Yandex.Metrica的最初架構是基於MySQL實現的,因此在ClickHouse的設計中,可以察覺到一些MySQL的影子,表引擎的設計就是其中之一。與MySQL相似,ClickHouse也將存儲部分進行了抽象,把存儲引擎做爲一層獨立的接口。截至本書完稿時,ClickHouse共擁有合併樹、內存、文件、接口和其餘6大類20多種表引擎。其中每一種表引擎都有着各自的特色,用戶能夠根據實際業務場景的要求,選擇合適的表引擎使用。
一般而言,一個通用系統意味着更普遍的適用性,可以適應更多的場景。但通用的另外一種解釋是平庸,由於它沒法在全部場景內都作到極致。
在軟件的世界中,並不會存在一個可以適用任何場景的通用系統,爲了突出某項特性,勢必會在別處有所取捨。其實世間萬物都遵循着這樣的道理,就像信天翁和蜂鳥,雖然都屬於鳥類,但它們各自的特色卻鑄就了徹底不一樣的體貌特徵。信天翁擅長遠距離飛行,環繞地球一週只須要1至2個月的時間。由於它可以長時間處於滑行狀態,5天才須要扇動一次翅膀,心率可以保持在每分鐘100至200次之間。而蜂鳥可以垂直懸停飛行,每秒能夠揮動翅膀70~100次,飛行時的心率可以達到每分鐘1000次。若是用數據庫的場景類比信天翁和蜂鳥的特色,那麼信天翁表明的多是使用普通硬件就能實現高性能的設計思路,數據按粗粒度處理,經過批處理的方式執行;而蜂鳥表明的多是按細粒度處理數據的設計思路,須要高性能硬件的支持。
將表引擎獨立設計的好處是顯而易見的,經過特定的表引擎支撐特定的場景,十分靈活。對於簡單的場景,可直接使用簡單的引擎下降成本,而複雜的場景也有合適的選擇。

多線程與分佈式

ClickHouse幾乎具有現代化高性能數據庫的全部典型特徵,對於能夠提高性能的手段可謂是一一用盡,對於多線程和分佈式這類被普遍使用的技術,天然更是不在話下。
若是說向量化執行是經過數據級並行的方式提高了性能,那麼多線程處理就是經過線程級並行的方式實現了性能的提高。相比基於底層硬件實現的向量化執行SIMD,線程級並行一般由更高層次的軟件層面控制。現代計算機系統早已普及了多處理器架構,因此現今市面上的服務器都具有良好的多核心多線程處理能力。因爲SIMD不適合用於帶有較多分支判斷的場景,ClickHouse也大量使用了多線程技術以實現提速,以此和向量化執行造成互補。
若是一個籃子裝不下全部的雞蛋,那麼就多用幾個籃子來裝,這就是分佈式設計中分而治之的基本思想。同理,若是一臺服務器性能吃緊,那麼就利用多臺服務的資源協同處理。爲了實現這一目標,首先須要在數據層面實現數據的分佈式。由於在分佈式領域,存在一條金科玉律—計算移動比數據移動更加划算。在各服務器之間,經過網絡傳輸數據的成本是高昂的,因此相比移動數據,更爲聰明的作法是預先將數據分佈到各臺服務器,將數據的計算查詢直接下推到數據所在的服務器。ClickHouse在數據存取方面,既支持分區 ( 縱向擴展,利用多線程原理 ),也支持分片 ( 橫向擴展,利用分佈式原理 ),能夠說是將多線程和分佈式的技術應用到了極致。

多主架構

HDFS、Spark、HBase和Elasticsearch這類分佈式系統,都採用了Master-Slave主從架構,由一個管控節點做爲Leader統籌全局。而ClickHouse則採用Multi-Master多主架構,集羣中的每一個節點角色對等,客戶端訪問任意一個節點都能獲得相同的效果。這種多主的架構有許多優點,例如對等的角色使系統架構變得更加簡單,不用再區分主控節點、數據節點和計算節點,集羣中的全部節點功能相同。因此它自然規避了單點故障的問題,很是適合用於多數據中心、異地多活的場景。

在線查詢

ClickHouse常常會被拿來與其餘的分析型數據庫做對比,好比Vertica、SparkSQL、Hive和Elasticsearch等,它與這些數據庫確實存在許多類似之處。例如,它們均可以支撐海量數據的查詢場景,都擁有分佈式架構,都支持列存、數據分片、計算下推等特性。這其實也側面說明了ClickHouse在設計上確實吸收了各路奇技淫巧。與其餘數據庫相比,ClickHouse也擁有明顯的優點。例如,Vertica這類商用軟件價格高昂;SparkSQL與Hive這類系統沒法保障90%的查詢在1秒內返回,在大數據量下的複雜查詢可能會須要分鐘級的響應時間;而Elasticsearch這類搜索引擎在處理億級數據聚合查詢時則顯得捉襟見肘。
正如ClickHouse的"廣告詞"所言,其餘的開源系統太慢,商用的系統太貴,只有Clickouse在成本與性能之間作到了良好平衡,即又快又開源。ClickHouse當之無愧地闡釋了"在線"二字的含義,即使是在複雜查詢的場景下,它也可以作到極快響應,且無須對數據進行任何預處理加工。

數據分片與分佈式查詢

數據分片是將數據進行橫向切分,這是一種在面對海量數據的場景下,解決存儲和查詢瓶頸的有效手段,是一種分治思想的體現。ClickHouse支持分片,而分片則依賴集羣。每一個集羣由1到多個分片組成,而每一個分片則對應了ClickHouse的1個服務節點。分片的數量上限取決於節點數量 ( 1個分片只能對應1個服務節點 )。
ClickHouse並不像其餘分佈式系統那樣,擁有高度自動化的分片功能。ClickHouse提供了本地表 ( Local Table ) 與分佈式表 ( Distributed Table ) 的概念。一張本地表等同於一份數據的分片。而分佈式表自己不存儲任何數據,它是本地表的訪問代理,其做用相似分庫中間件。藉助分佈式表,可以代理訪問多個數據分片,從而實現分佈式查詢。
這種設計相似數據庫的分庫和分表,十分靈活。例如在業務系統上線的初期,數據體量並不高,此時數據表並不須要多個分片。因此使用單個節點的本地表 ( 單個數據分片 ) 便可知足業務需求,待到業務增加、數據量增大的時候,再經過新增數據分片的方式分流數據,並經過分佈式表實現分佈式查詢。這就比如一輛手動擋賽車,它將全部的選擇權都交到了使用者的手中。

簡單入門

關於ClickHouse的安裝,咱們在這裏再也不詳細展開,官網有詳細的文檔能夠參考。
咱們使用Java客戶端鏈接ClickHouse進行一些簡單的操做。首先Clickhouse 有兩種 JDBC 驅動實現:
一種是官方給出的

<dependency>
    <groupId>ru.yandex.clickhouse</groupId>
    <artifactId>clickhouse-jdbc</artifactId>
    <version>0.2.4</version>
</dependency>

還有一種第三方提供的驅動:

<dependency>
    <groupId>com.github.housepower</groupId>
    <artifactId>clickhouse-native-jdbc</artifactId>
    <version>2.5.2</version>
</dependency>

二者間的主要區別以下:
驅動類加載路徑不一樣,分別爲

ru.yandex.clickhouse.ClickHouseDriver 和 com.github.housepower.jdbc.ClickHouseDriver

默認鏈接端口不一樣,分別爲 8123 和 9000
鏈接協議不一樣,官方驅動使用 HTTP 協議,而三方驅動使用 TCP 協議
須要注意的是,兩種驅動不可共用,同個項目中只能選擇其中一種驅動。

Class.forName("com.github.housepower.jdbc.ClickHouseDriver");
Connection connection = DriverManager.getConnection("jdbc:clickhouse://192.168.60.131:9000");

Statement statement = connection.createStatement();
statement.executeQuery("create table test.example(day Date, name String, age UInt8) Engine=Log");

PreparedStatement pstmt = connection.prepareStatement("insert into test.example values(?, ?, ?)");

// insert 10 records
for (int i = 0; i < 10; i++) {
    pstmt.setDate(1, new Date(System.currentTimeMillis()));
    pstmt.setString(2, "panda_" + (i + 1));
    pstmt.setInt(3, 18);
    pstmt.addBatch();
}
pstmt.executeBatch();

Statement statement = connection.createStatement();

String sql = "select * from test.jdbc_example";
ResultSet rs = statement.executeQuery(sql);

while (rs.next()) {
    // ResultSet 的下標值從 1 開始,不可以使用 0,不然越界,報 ArrayIndexOutOfBoundsException 異常
    System.out.println(rs.getDate(1) + ", " + rs.getString(2) + ", " + rs.getInt(3));
}

經過 clickhouse-client 命令行界面查看錶狀況:

ck-master :) show tables;

SHOW TABLES

┌─name─────────┐
│ hits         │
│ jdbc_example │
└──────────────┘

ck-master :) select * from example;

SELECT *
FROM jdbc_example

┌────────day─┬─name─────┬─age─┐
│ 2019-04-25 │ panda_1  │  18 │
│ 2019-04-25 │ panda_2  │  18 │
│ 2019-04-25 │ panda_3  │  18 │
│ 2019-04-25 │ panda_4  │  18 │
│ 2019-04-25 │ panda_5  │  18 │
│ 2019-04-25 │ panda_6  │  18 │
│ 2019-04-25 │ panda_7  │  18 │
│ 2019-04-25 │ panda_8  │  18 │
│ 2019-04-25 │ panda_9  │  18 │
│ 2019-04-25 │ panda_10 │  18 │
└────────────┴──────────┴─────┘

企業級應用

從2019年起,已經有不少大廠開始在生產環境使用ClickHouse,小編在這裏根據各大公司使用狀況做了一些總結,適用場景、方案、優化等等。

ClickHouse在攜程酒店數據智能平臺的應用

下圖是攜程實際應用ClickHouse的架構圖,底層數據大部分是離線的,一部分是實時的,離線數據如今大概有將近 3000 多個 job 天天都是把數據從 HIVE 拉到 ClickHouse 裏面去,實時數據主要是接外部數據,而後批量寫到 ClickHouse 裏面。數據智能平臺 80%以上的數據都在 ClickHouse 上面。
ClickHouse大數據領域企業級應用實踐和探索總結
同時,攜程還存在全量數據同步和增量數據同步的場景。
全量數據同步的流程流程以下圖:

  • 清空A_temp表,將最新的數據從Hive經過ETL導入到A_temp表
  • 將A rename 成A_temp_temp
  • 將A_temp rename成 A
  • 將A_temp_temp rename成 A_tem
    ClickHouse大數據領域企業級應用實踐和探索總結
    須要注意的是,ClickHouse每執行一個 insert 的時候會產生一個進程 ID,若是沒有執行完,直接 Rename 就會形成數據丟失,數據就不對了,因此必需要有一個 job 在輪詢看這邊是否是執行完了,只有當 insert 的進程 id 執行完成後再作後面一系列的 rename。
    增量的數據同步流程入下圖所示:
  • 清空A_temp表,將最近3個月的數據從Hive經過ETL導入到A_temp表
  • 將A表中3個月以前的數據select into到A_temp表
  • 將A rename 成A_temp_temp
  • 將A_temp rename成 A
  • 將A_temp_temp rename成 A_tem
    ClickHouse大數據領域企業級應用實踐和探索總結
    如下是攜程使用ClickHouse的經驗:
    一、數據導入以前要評估好分區字段
    ClickHouse 由於是根據分區文件存儲的,若是說你的分區字段真實數據粒度很細,數據導入的時候就會把你的物理機打爆。其實數據量可能沒有多少,可是由於你用的字段不合理,會產生大量的碎片文件,磁盤空間就會打到底。
    二、數據導入提早根據分區作好排序,避免同時寫入過多分區致使 clickhouse 內部來不及 Merge
    數據導入以前咱們作好排序,這樣能夠下降數據導入後 ClickHouse 後臺異步 Merge 的時候涉及到的分區數,確定是涉及到的分區數越少服務器壓力也會越小。
    三、左右表 join 的時候要注意數據量的變化
    再就是左右表 join 的問題,ClickHouse 它必需要大表在左邊,小表在右邊。可是咱們可能某些業務場景跑着跑着數據量會返過來了,這個時候咱們須要有監控能及時發現並修改這個 join 關係。
    四、根據數據量以及應用場景評估是否採用分佈式
    分佈式要根據應用場景來,若是你的應用場景向上彙總後數據量已經超過了單物理機的存儲或者 CPU/內存瓶頸而不得不採用分佈式 ClickHouse 也有很完善的 MPP 架構,但同時你也要維護好你的主 keyboard。
    五、監控好服務器的 CPU/內存波動
    再就是作好監控,我前面說過 ClickHouse 的 CPU 拉到 60%的時候,基本上你的慢查詢立刻就出來了,因此我這邊是有對 CPU 和內存的波動進行監控的,相似於 dump,這個咱們抓下來之後就能夠作分析。
    六、數據存儲磁盤儘可能採用 SSD
    數據存儲儘可能用 SSD,由於我以前也開始用過機械硬盤,機械硬盤有一個問題就是當你的服務器要運維之後須要重啓,這個時候數據要加載,咱們如今單機數據量存儲有超過了 200 億以上,這仍是我幾個月前統計的。這個數據量若是說用機械硬盤的話,重啓一次可能要等上好幾個小時服務器纔可用,因此儘可能用 SSD,重啓速度會快不少。
    固然重啓也有一個問題就是說會致使你的數據合併出現錯亂,這是一個坑。因此我每次維護機器的時候,同一個集羣我不會同時維護幾臺機器,我只會一臺一臺維護,A 機器好了之後會跟它的備用機器對比數據,不然機器起來了,可是數據不必定是對的,而且多是一大片數據都是不對的。
    七、減小數據中文本信息的冗餘存儲
    要減小一些中文信息的冗餘存儲,由於中文信息會致使整個服務器的 IO 很高,特別是導數據的時候。
    八、特別適用於數據量大,查詢頻次可控的場景,如數據分析、埋點日誌系統
    對於它的應用,我認爲從成本角度來講,就像之前咱們有不少業務數據的修改日誌,你們開發的時候可能都習慣性的存到 MySQL 裏面,可是實際上我認爲這種數據很是適合於落到 ClickHouse 裏面,比落到 MySQL 裏面成本會更低,查詢速度會更快。

    Clickhouse在快手的應用

    ClickHouse大數據領域企業級應用實踐和探索總結ClickHouse大數據領域企業級應用實踐和探索總結ClickHouse大數據領域企業級應用實踐和探索總結ClickHouse大數據領域企業級應用實踐和探索總結ClickHouse大數據領域企業級應用實踐和探索總結ClickHouse大數據領域企業級應用實踐和探索總結

    Clickhouse在QQ的應用

    QQ音樂大數據團隊基於ClickHouse+Superset等基礎組件,結合騰訊雲EMR產品的雲端能力,搭建起高可用、低延遲的實時OLAP分析計算可視化平臺。
    集羣日均新增萬億數據,規模達到上萬核CPU,PB級數據量。總體實現秒級的實時數據分析、提取、下鑽、監控數據基礎服務,大大提升了大數據分析與處理的工做效率。
    ClickHouse大數據領域企業級應用實踐和探索總結
    經過OLAP分析平臺,極大下降了探索數據的門檻,作到全民BI,全民數據服務,實現了實時PV、UV、營收、用戶圈層、熱門歌曲等各種指標高效分析,全鏈路數據秒級分析定位,增強數據上報規範,造成一個良好的正循環。
    面對上萬核集羣規模、PB級的數據量,通過QQ音樂大數據團隊和騰訊雲EMR雙方技術團隊無數次技術架構升級優化,性能優化,逐步造成高可用、高性能、高安全的OLAP計算分析平臺。
    (1)基於SSD盤的ZooKeeper
    ClickHouse依賴於ZooKeeper實現分佈式系統的協調工做,在ClickHouse併發寫入量較大時,ZooKeeper對元數據存儲處理不及時,會致使ClickHouse副本間同步出現延遲,下降集羣總體性能。
    解決方案:採用SSD盤的ZooKeeper大幅提升IO的性能,在表個數小於100,數據量級在TB級別時,也可採用HDD盤,其餘狀況都建議採用SSD盤。
    ClickHouse大數據領域企業級應用實踐和探索總結
    (2)數據寫入一致性
    數據在寫入ClickHouse失敗重試後內容出現重複,致使了不一樣系統,如Hive離線數倉中分析結果,與ClickHouse集羣中運算結果不一致。
    ClickHouse大數據領域企業級應用實踐和探索總結
    解決方案:基於統一全局的負載均衡調度策略,完成數據失敗後仍然可寫入同一Shard,實現數據冪等寫入,從而保證在ClickHouse中數據一致性。
    (3)實時離線數據寫入
    ClickHouse數據主要來自實時流水上報數據和離線數據中間分析結果數據,如何在架構中完成上萬億基本數據的高效安全寫入,是一個巨大的挑戰。
    解決方案:基於Tube消息隊列,完成統一數據的分發消費,基於上述的一致性策略實現數據冪同步,作到實時和離線數據的高效寫入。
    ClickHouse大數據領域企業級應用實踐和探索總結
    (4)表分區數優化
    部分離線數據倉庫採用按小時落地分區,若是採用原始的小時分區更新同步,會形成ClickHouse中Select查詢打開大量文件及文件描述符,進而致使性能低下。
    解決方案:ClickHouse官方也建議,表分區的數量建議不超過10000,上述的數據同步架構完成小時分區轉換爲天分區,同時程序中完成數據冪等消費。
    (5)讀/寫分離架構
    頻繁的寫動做,會消耗大量CPU/內存/網卡資源,後臺合併線程得不到有效資源,下降Merge Parts速度,MergeTree構建不及時,進而影響讀取效率,致使集羣性能下降。
    解決方案:ClickHouse臨時節點預先完成數據分區文件構建,動態加載到線上服務集羣,緩解ClickHouse在大量併發寫場景下的性能問題,實現高效的讀/寫分離架構,具體步驟和架構以下:
    a)利用K8S的彈性構建部署能力,構建臨時ClickHouse節點,數據寫入該節點完成數據的Merge、排序等構建工做;
    b)構建完成數據按MergeTree結構關聯至正式業務集羣。
    固然對一些小數據量的同步寫入,可採用10000條以上批量的寫入。
    ClickHouse大數據領域企業級應用實踐和探索總結
    (6)跨表查詢本地化
    在ClickHouse集羣中跨表進行Select查詢時,採用Global IN/Global Join語句性能較爲低下。分析緣由,是在此類操做會生成臨時表,並跨設備同步該表,致使查詢速度慢。
    解決方案:採用一致性hash,將相同主鍵數據寫入同一個數據分片,在本地local表完成跨表聯合查詢,數據均來自於本地存儲,從而提升查詢速度。
    這種優化方案也有必定的潛在問題,目前ClickHouse尚不提供數據的Reshard能力,當Shard所存儲主鍵數據量持續增長,達到磁盤容量上限須要分拆時,目前只能根據原始數據再次重建CK集羣,有較高的成本。
    ClickHouse大數據領域企業級應用實踐和探索總結ClickHouse從進入大衆視野到開始普遍應用實踐並不久,ClickHouse社區也在飛速發展中。ClickHouse仍然年輕,雖然在某些方面存在不足,但極致性能的存儲引擎,使得ClickHouse成爲一個很是優秀的存儲底座。

相關文章
相關標籤/搜索