Spark:Task原理分析

在Spark中,一個應用程序要想被執行,肯定要經過以下的步驟:          從這個路線得知,最終一個job是依賴於分佈在集羣不同節點中的task,通過並行或者併發的運行來完成真正的工作。由此可見,一個個的分佈式的task纔是Spark的真正執行者。下面先來張task運行框架整體的對Spark的task運行有個大概的瞭解。     task運行之前的工作是Driver啓動Executor,接着
相關文章
相關標籤/搜索