Spark集羣搭建

一、上傳解壓壓縮包,包括spark 和 scala 的壓縮包,解壓到/home/hadoop/apps目錄下 二、修改conf 目錄下配置文件 a. 修改 slaves 文件,( 若沒有 slaves 文件能夠 cp slaves.template slaves 建立), 添加 worker 節點的 Hostname, 修改後內容以下: # A Spark Worker will be start
相關文章
相關標籤/搜索