大數據學習之Hadoop如何高效處理大數據

Hadoop與Google同樣,都是小孩命名的,是一個虛構的名字,沒有特別的含義。從計算機專業的角度看,Hadoop是一個分佈式系統基礎架構,由Apache基金會開發。Hadoop的主要目標是對分佈式環境下的「大數據」以一種可靠、高效、可伸縮的方式處理。設想一個場景,假如您須要grep一個100TB的大數據文件,按照傳統的方式,會花費很長時間,而這正是Hadoop所須要考慮的效率問題。大數據學習羣
相關文章
相關標籤/搜索