spark1.63升級到spark2.3.1環境變量配置

因爲spark2.3須要jdk1.8的支持,所以spark-submit與spark-sql須要指定jdk版本,具體方式見測試用例 1.修改我的用戶配置文件.bashrc ,註釋之前的spark環境與java環境,添加java vi ~/.bashrcsql #export SPARK_HOME=/opt/core/spark-1.6.3-bin-hadoop2.6shell #export JA
相關文章
相關標籤/搜索