啓動spark-shell遇到的問題

系統:Windows10 Spark 2.1.1+Hadoop 2.8.3+Scala 2.11.8+jdk1.8.0_171 最近在學習spark的東西,本來想按照官方文檔學的,但是第一個例子就報錯。 找了一下是啓動spark-shell的時候就報錯了已經 報錯信息如下: <console>:14: error: not found: valuespark       import spark.
相關文章
相關標籤/搜索