大數據Hadoop:殺雞用的宰牛刀

Hadoop是個龐大的重型解決方案,它的設計目標本來就是大規模甚至超大規模的集羣,面對的是上百甚至上千個節點,這樣就會帶來兩個問題: 自動化管理管任務分配機制:這樣規模的集羣,顯然不大可能針對每個節點提供個性化的管理控制,否則工作量會大到累死人,必須採用自動化的管理和任務分配手段,而這並不是件簡單的事情。 強容錯能力:大規模集羣在某個任務執行週期內,也就是幾小時之內,都有可能發生設備故障。如果沒有
相關文章
相關標籤/搜索