淺談大數據中Hadoop、Hive和Spark的詳解

首先大數據本身是個很寬泛的概念,Hadoop生態圈(或者泛生態圈)基本上都是爲了處理超過單機尺度的數據處理而誕生的。你可以把它比作一個廚房所以需要的各種工具。鍋碗瓢盆,各有各的用處,互相之間又有重合。你可以用湯鍋直接當碗吃飯喝湯,你可以用小刀或者刨子去皮。但是每個工具有自己的特性,雖然奇怪的組合也能工作,但是未必是最佳選擇。 存放數據 傳統的文件系統是單機的,不能橫跨不同的機器。HDFS(Hado
相關文章
相關標籤/搜索