Pyspark,Python下安裝Spark,無需安裝Hadoop

又是裝環境鬥志鬥勇的一天,苦笑html 以前一直不想搭虛擬機/Hadoop/spark這些環境,後來python三千萬行數據實在跑不動了,知道有pyspark這等好東西,覺得conda install pyspark一下就能夠了,發現並無那麼簡單。找了不少資料,搜了不少也沒找到合適的教程,正好記錄一下,但願能幫到須要的同窗。不用虛擬機不用Hadoop。java 環境:anconda 3.0 win
相關文章
相關標籤/搜索