利用docker搭建spark hadoop workbench

目的 用docker實現所有服務 在spark-notebook中編寫Scala代碼,實時提交到spark集羣中運行 在HDFS中存儲數據文件,spark-notebook中直接讀取 組件 Spark (Standalone模式, 1個master節點 + 可擴展的worker節點) Spark-notebook Hadoop name node Hadoop data node HDFS Fil
相關文章
相關標籤/搜索