在 windows 下搭建 IDEA + Spark 鏈接 Hive 的環境

   爲了開發測試方便,想直接在 IDEA 裏運行 Spark 程序,能夠鏈接 Hive,需不是打好包後,放到集羣上去運行。主要配置工做以下:java

1. 把集羣環境中的 hive-core.xml, hdfs-site.xml, core-site.xml 三個文件複製一份,放到 resource 目錄下。網上有說只須要放 hive-core.xml 就能夠了。我部署的是高可用的集羣,只複製 hive-core.xml 會報錯。三個都放就不會有問題了。windows

2. 在本機上解壓 hadoop 的安裝包,下載 winutils.exe 文件,放在 <hadoop安裝包目錄>/bin/ 下面。並建立以下的兩個 windows 的環境變量。HADOOP_HOME 就是指向的 <hadoop安裝包目錄>。oop

若是不作上面的操做的話,會出現以下的錯誤。  HDOOP_USER_NAME 的做用是指定以哪一個用戶運行 Spark 程序,不指定的話,會連不上 Hadoop。測試

Failed to locate the winutils binary in the hadoop binary path  java.io.IOException: Could not locate executablenull\bin\winutils.exe in the Hadoop binaries. 

 注意:配置好環境變量後,關掉 IDEA ,重啓一下。要否則環境變量沒生效。spa

相關文章
相關標籤/搜索