Mac 下使用Spark不能加載本地Hadoop庫問題解決

在Mac上安裝測試Spark時,在執行一個Job(用Python調用)時出現如下錯誤:java Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). 17/11/22 11:01:22 WARN
相關文章
相關標籤/搜索