spark架構及生態

通常當需要處理的數據量超過了單機尺度(比如我們的計算機有4GB的內存,而我們需要處理100GB以上的數據)這時我們可以選擇spark集羣進行計算,有時我們可能需要處理的數據量並不大,但是計算很複雜,需要大量的時間,這時我們也可以選擇利用spark集羣強大的計算資源,並行化地計算,其架構示意圖如下 Spark Core:包含Spark的基本功能;尤其是定義RDD的API、操作以及這兩者上的動作。其他
相關文章
相關標籤/搜索