windows下jdk、hadoop、Scala、Spark的調試環境配置(jdk路徑的空格問題, /tmp/hive on HDFS should be writable問題)

一、首先是jdk的路徑問題

爲了和之後出現的hadoop,spark出現 路徑帶有空格致使 調用失敗的狀況, 直接把 jdk的路徑 剪切到 沒有空格的目錄下。shell

D:\>echo %JAVA_HOME% C:\Java\jdk1.8.0_202

 

 

 

 

 

 到這裏,在cmd下,能 看到 scala -version和 spark-shell 。oop

 

 

二、spark出現The root scratch dir: /tmp/hive on HDFS should be writable

%HADOOP_HOME%\bin\winutils.exe ls \tmp\hive %HADOOP_HOME%\bin\winutils.exe chmod 777 \tmp\hive %HADOOP_HOME%\bin\winutils.exe ls \tmp\hive

 

 

注意:若是程序是放在 D盤, 那麼要在D盤執行以上命令。spa

 

 

看到讀寫的權限都有了。scala

相關文章
相關標籤/搜索