docker下的spark集羣,調整參數榨乾硬件

本文是《docker下,極速搭建spark集羣(含hdfs集羣)》的續篇,前文將spark集羣搭建成功並進行了簡單的驗證,可是存在如下幾個小問題:java spark只有一個work節點,只適合處理小數據量的任務,遇到大量數據的任務要消耗更多時間; hdfs的文件目錄和docker安裝目錄在一塊兒,若是要保存大量文件,極可能因爲磁盤空間不足致使上傳失敗; master的4040和work的8080
相關文章
相關標籤/搜索