核桃編程Delta Lake實時數倉應用實踐

1.3 架構改造前方案 現有指標都是將Kafka/Mysql等的數據寫入HDFS,使用Hive離線批處理,每10分鐘執行一次,循環統計歷史累計指標,再定時把數據同步到Mysql,提供給數據後臺查詢。如下圖所示: image 1.4 遇到的問題 隨着計算的數據量越來越大,逐漸不能滿足業務的更新頻率要求。 使用Apache Sqoop做全量數據同步,會對業務Mysql庫/HDFS造成壓力。 使用Apa
相關文章
相關標籤/搜索