spark job, stage ,task介紹

1. spark 如何執行程序? 首先看下spark 的部署圖:    節點類型有: 1. master 節點: 常駐master進程,負責管理全部worker節點。 2. worker 節點: 常駐worker進程,負責管理executor 並與master節點通信。 dirvier:官方解釋爲: The process running the main() function of the ap
相關文章
相關標籤/搜索