在jupyter notebook上引用pyspark

最近都是直接使用pyspark shell或者用pycharm來寫spark的代碼,可是在處理數據或者看訓練結果的時候仍是jupyter notebook方便太多太多,可是在jupyter中沒辦法引入pyspark,致使不太方便,這裏記錄一下在jupyter notebook引入pyspark的方法。 環境:anaconda(推薦全部人都裝,很是的方便)python3.6,spark2.0,操做系
相關文章
相關標籤/搜索