windows下 執行spark-shell 和 pyspark 自動退出 啓動失敗

spark hadoop jdk 環境均配置正確,可是在:shell 在cmd下執行spark-shell 或 pyspark 老是啓動失敗,在網上百度下,也沒找到解決方案,後來試了下用「使用管理員的身份運行」cmd 再執行spark-shell 或 pyspark  啓動成功oop
相關文章
相關標籤/搜索