Ubuntu 16.04下Spark安裝與開發環境搭建

https://blog.csdn.net/lengconglin/article/details/77847623php     1、Spark運行環境     Spark是Scala寫的,運行在JVM上,因此運行環境Java7+,若是使用Python API,須要安裝Python 2.6+或者Python3.4+,安裝以前確認已經安裝了Java,可參見本人博客:http://blog.csdn
相關文章
相關標籤/搜索