基於Hadoop集羣的Spark集羣搭建

基於Hadoop集羣的Spark集羣搭建html 一. 單機版Spark搭建web (1)將下載下來的軟件包拉至集羣中(主節點上) (2)解壓至指定目錄 (3)將解壓下的文件移至某個特定目錄下並查看 (4)修改環境變量 (5)使環境變量生效並進入scala命令行測試; (6)解壓scala壓縮包並放置指定目錄; (7)添加環境變量 (8)生效環境變量並測試spark(source .bash_pr
相關文章
相關標籤/搜索