Spark詳解(八):Spark 容錯以及高可用性HA

所謂容錯就是一個系統的部分出現錯誤的情況還能夠持續地提供服務,不會因爲一些錯誤而導致系統性能嚴重下降或出現系統癱瘓。在一個集羣中出現機器故障、網絡問題等常態,尤其集羣達到較大規模後,很可能較頻繁的出現機器故障等不能進行提供服務,因此分佈性集羣需要進行容錯設計。 1. Executor容錯 Spark支持多種運行模式,這些運行模型中的集羣管理器會爲任務分配運行資源,在運行資源中啓動Executor,
相關文章
相關標籤/搜索