spark集羣安裝

基礎配置:JDK,關閉防火牆,免祕鑰登錄(略) 1,配置3個節點,ip分別設置爲192.168.1.17;192.168.1.18;192.168.1.19 2,在每個節點上都解壓spark安裝包(spark-2.0.1-bin-hadoop2.7) 3,在每個節點conf/spark-env.sh中配置SPARK_LOCAL_IP=當前主機地址 注:以下xxxmasteripxxx統統都是192
相關文章
相關標籤/搜索