Learning Spark——使用spark-shell運行Word Count

在hadoop、zookeeper、hbase、spark集羣環境搭建 中已經把環境搭建好了,工欲善其事必先利其器,如今器已經有了,接下來就要開搞了,先從spark-shell開始揭開Spark的神器面紗。web spark-shell是Spark的命令行界面,咱們能夠在上面直接敲一些命令,就像windows的cmd同樣,進入Spark安裝目錄,執行如下命令打開spark-shell:shell
相關文章
相關標籤/搜索