spark執行的時候報Unable to load native-hadoop library for your platform警告

緣由:bash spark預先編譯的hadoop版本爲32位的,放在64位的機器上執行會報這個錯誤,解決辦法oop 辦法一:spa 在spark的conf目錄下,在spark-env.sh文件中加入LD_LIBRARY_PATH環境變量LD_LIBRARY_PATH=$HADOOP_HOME/lib/nativehadoop 辦法2、spark 在 ~/.bashrc 設置一下 export LD
相關文章
相關標籤/搜索