Spark(2)——小用RDD

sparkcontext相當於我們和spark集羣出創建好了連接,可以通過sparkcontext這樣的上下文環境來創建RDD,在shell命令行中,spark已經將上下文環境創建好了,當我們輸入sc時: 可見已經用了local模式,沒有使用集羣,這樣可以驗證一些基本的代碼appName是我們當前啓動的spark作業,名稱爲PySparkShell,我麼也可以通過4040端口來查看: 我們可以通過
相關文章
相關標籤/搜索