@[Spark架構]

並行化是將工作負載分在不同線程或不同節點上執行的子任務. Spark的工作負載的劃分由RDD分區決定。 編寫程序提交到Master上, Master是由四大部分組成(RDD Graph,Scheduler,Block Tracker以及Shuffle Tracker) 啓動RDD Graph就是DAG,它會提交給Task Scheduler任務調度器等待調度執行 具體執行時,Task Schedu
相關文章
相關標籤/搜索