Spark API編程動手實戰-05-spark文件操作和debug

這次 我們以指定executor-memory參數的方式來啓動spark-shell: 啓動成功了   在命令行中我們指定了spark-shell運行暫用的每個機器上的executor的內存爲1g大小,啓動成功後參看web頁面:   從hdfs上讀取文件:   在命令行中返回的MappedRDD,使用toDebugString,可以查看其lineage的關係: 可以看出MappedRDD是從Had
相關文章
相關標籤/搜索