windows下python3.6+pycharm+spark2.3+jdk1.8+hadoop2.7環境搭建

最近要做日誌分析 所以想搭建spark環境 但是又覺得雙系統有點麻煩 而且文件量不大 所以就用了windows系統。 在網上看了很多博客  有篇博客介紹說spark不支持python3.6  但是我發現搭建以後測試程序也成功運行了 所以寫出來跟大家分享一下。 把錯誤寫在前頭:我一開始用的jdk1.7,在控制檯輸入pyspark的時候一直報版本不匹配的錯誤,後來我換成了jdk1.8就好了。 下載jd
相關文章
相關標籤/搜索