windows系統快速搭建pyspark環境(Anaconda)炒雞簡單

剛開始我嘗試在Windows系統和Ubuntu系統單獨配置spark hadoop ,發現很是複雜,尤其在環境配置等方面總是出現一些問題不好解決,所以我採用了另一種思路,發現特別快速和簡介,相比和我一樣想快速使用spark的小夥伴都已經迫不及待了! 總體思路是首先下載anaconda,然後再用anaconda下載pyspark,然後一切就完成了! 1.下載Anaconda 此篇只嘗試了window
相關文章
相關標籤/搜索