Spark,Hadoop,Hive

不同的業務場景決定了不同的系統架構選型。Hadoop 用於分佈式存儲和 Map-Reduce 計算,Spark 用於分佈式機器學習,Hive 則是分佈式數據庫。Hive 和 Spark 是大數據領域內爲不同目的而構建的不同產品。二者都有不可替代的優勢。Hive 是一個基於Hadoop 的分佈式數據庫,Spark 則是一個用於數據分析的框架。 學習 Spark ,從大方向說,算子大致可以分爲以下兩類
相關文章
相關標籤/搜索