hadoop&spark安裝(下)

上一遍文章中其實最主要的就是JAVA環境變量以及hadoop環境變量的設置,這兩個設置好了的話,運行hadoop基本上不會出問題。 在hadoop的基礎上安裝spark好簡單。 安裝Spark之前需要先安裝Hadoop集羣,因爲之前已經安裝了hadoop,所以我直接在之前的hadoop集羣上安裝spark。 硬件環境: hddcluster1 10.0.0.197 redhat7 hddclust
相關文章
相關標籤/搜索