spark partition,task,core,等等對應關係

用戶應用new SparkContext後,集羣就會爲在Worker上分配executor,可是增長executor的時候須要考慮好內存消耗,由於一臺機器的內存分配給越多的executor,每一個executor的內存就越小,以至出現過多的數據spill over甚至out of memory的狀況。CPU的core數量,每一個executor能夠佔用一個或多個core,能夠經過觀察CPU的使用率
相關文章
相關標籤/搜索