Spark任務拆分-併發問題

現有的結構是Spark從HBase中提取數據,進行計算操做。併發 Spark的併發是由:spa 可用CPU核數*Worker數量,來肯定上限的,這種狀況針對於單節點。線程 併發數還受到RDD的分區數量影響的,說回Hbase的話,就是受到Region數影響,基本與其一致;blog   因此若是在HbaseConf中肯定的Region數量只有1個的話,那麼會出現Spark單線程執行的狀況;it 這個時
相關文章
相關標籤/搜索