在Ubuntu下搭建Spark羣集

在前一篇文章中,我們已經搭建好了Hadoop的羣集,接下來,我們就是需要基於這個Hadoop羣集,搭建Spark的羣集。由於前面已經做了大量的工作,所以接下來搭建Spark會簡單很多。 首先打開三個虛擬機,現在我們需要安裝Scala,因爲Spark是基於Scala開發的,所以需要安裝Scala。在Ubuntu下安裝Scala很簡單,我們只需要運行 sudo apt-get install scal
相關文章
相關標籤/搜索