Spark處理RDD,分區數和executor的關係

在代碼中將RDD進行了hash重分區成56個partition,RDD中包含從HDFS上讀取的4億條記錄,每一行記錄存爲RDD中的一個元素。 所以最終RDD有4億個元素,56個分區,對應spark程序中56個task, 查看任務時顯示如下: 再結合spark的原理圖: 部門spark集羣共有201個executor,總tasks數爲56,每個executor具有3個cores,理論上每個execu
相關文章
相關標籤/搜索