Spark分佈式集羣搭建(一)Spark虛擬機集羣搭建:Hadoop+Spark僞分佈式集羣(虛擬機)+IntellJIdea 的環境搭建

環境搭建順序:1)安裝hadoop  2)在hadoop上安裝Spark集羣  3)IntellJIdea連接Spark集羣 寫在前面:凡是涉及到的linux系統操作,建議以root用戶權限進行工作 準備工作共有兩項:虛擬機配置+SSH服務安裝 準備工作1:虛擬機配置 1.1  安裝 VMware Workstation 12 player(虛擬機軟件) 1.2   在 VMware Workst
相關文章
相關標籤/搜索