原文地址:http://blog.csdn.net/u010270403/article/details/51493191html
首先咱們先了解一下Hadoop的起源。而後介紹一些關於Hadoop生態系統中的具體工具的使用方法。如:HDFS、MapReduce、Yarn、Zookeeper、Hive、HBase、Oozie、Mahout、Pig、Flume、Sqoop。web
Doug Cutting是Hadoop之父 ,起初他開創了一個開源軟件Lucene(用Java語言編寫,提供了全文檢索引擎的架構,與Google相似),Lucene後來面臨與Google一樣的錯誤。因而,Doug Cutting學習並模仿Google解決這些問題的辦法,產生了一個Lucene的微縮版Nutch。算法
後來,Doug Cutting等人根據2003-2004年Google公開的部分GFS和Mapreduce思想的細節,利用業餘時間實現了GFS和Mapreduce的機制,從而提升了Nutch的性能。由此Hadoop產生了。shell
Hadoop於2005年秋天做爲Lucene的子項目Nutch的一部分正式引入Apache基金會。2006年3月份,Map-Reduce和Nutch Distributed File System(NDFS)分別被歸入Hadoop的項目中。
關於Hadoop名字的來源,是Doug Cutting兒子的玩具大象。數據庫
Hadoop是一個開源框架,可編寫和運行分佈式應用處理大規模數據。 Hadoop框架的核心是HDFS和MapReduce。其中 HDFS 是分佈式文件系統,MapReduce 是分佈式數據處理模型和執行環境。apache
在一個寬泛而不斷變化的分佈式計算領域,Hadoop憑藉什麼優點能脫穎而出呢?
1. 運行方便:Hadoop是運行在由通常商用機器構成的大型集羣上。Hadoop在雲計算服務層次中屬於PaaS(Platform-as-a- Service):平臺即服務。
2. 健壯性:Hadoop致力於在通常的商用硬件上運行,可以從容的處理相似硬件失效這類的故障。
3. 可擴展性:Hadoop經過增長集羣節點,能夠線性地擴展以處理更大的數據集。
4. 簡單:Hadoop容許用戶快速編寫高效的並行代碼。api
上面的圖可能有些亂,下面咱們用一個簡易的Hadoop生態系統圖譜來描述Hadoop生態系統中出現的各類數據工具。架構
Hadoop1.0時代的生態系統以下:負載均衡
Hadoop2.0時代的生態系統以下:框架
由上圖能夠看出Hadoop1.0與Hadoop2.0的區別。Hadoop1.0的核心由HDFS(Hadoop Distributed File System)和MapReduce(分佈式計算框架)構成。而在Hadoop2.0中增長了Yarn(Yet Another Resource Negotiator),來負責集羣資源的統一管理和調度。
HDFS源自於Google發表於2003年10月的GFS論文,也便是說HDFS是GFS的克隆版。
此處只是HDFS的概述,若是想了解HDFS詳情,請查看HDFS詳解這篇文章。
Yarn是Hadoop2.0新增的系統,負責集羣的資源管理和調度,使得多種計算框架能夠運行在一個集羣中。
此處只是Yarn的概述,若是想了解Yarn詳情,請查看Yarn詳解這篇文章。
MapReduce源自於Google發表於2004年12月的MapReduce論文,也就是說,Hadoop MapReduce是Google MapReduce的克隆版。
此處只是MapReduce的概述,若是想了解MapReduce詳情,請查看MapReduce詳解這篇文章。
Hive由facebook開源,最初用於解決海量結構化的日誌數據統計問題;是一種ETL(Extraction-Transformation-Loading)工具。它也是構建在Hadoop之上的數據倉庫;數據計算使用MR,數據存儲使用HDFS。
Hive定義了一種相似SQL查詢語言的HiveQL查詢語言,除了不支持更新、索引和實物,幾乎SQL的其餘特徵都能支持。它一般用於離線數據處理(採用MapReduce);咱們能夠認爲Hive的HiveQL語言是MapReduce語言的翻譯器,把MapReduce程序簡化爲HiveQL語言。但有些複雜的MapReduce程序是沒法用HiveQL來描述的。
Hive提供shell、JDBC/ODBC、Thrift、Web等接口。
此處只是Hive的概述,若是想了解Hive詳情,請查看Hive詳解這篇文章。
Pig由yahoo!開源,設計動機是提供一種基於MapReduce的ad-hoc數據分析工具。它一般用於進行離線分析。
Pig是構建在Hadoop之上的數據倉庫,定義了一種相似於SQL的數據流語言–Pig Latin,Pig Latin能夠完成排序、過濾、求和、關聯等操做,能夠支持自定義函數。Pig自動把Pig Latin映射爲MapReduce做業,上傳到集羣運行,減小用戶編寫Java程序的苦惱。
Pig有三種運行方式:Grunt shell、腳本方式、嵌入式。
此處只是Pig的概述,若是想了解Pig詳情,請查看Pig詳解這篇文章。
Mahout是基於Hadoop的機器學習和數據挖掘的分佈式計算框架。它實現了三大算法:推薦、聚類、分類。
HBase源自Google發表於2006年11月的Bigtable論文。也就是說,HBase是Google Bigtable的克隆版。
HBase可使用shell、web、api等多種方式訪問。它是NoSQL的典型表明產品。
此處只是HBase的概述,若是想了解HBase詳情,請查看HBase詳解這篇文章。
下面簡要介紹一下:
Zookeeper源自Google發表於2006年11月的Chubby論文,也就是說Zookeeper是Chubby的克隆版。
Zookeeper解決分佈式環境下數據管理問題:
Sqoop是鏈接Hadoop與傳統數據庫之間的橋樑,它支持多種數據庫,包括MySQL、DB2等;插拔式,用戶能夠根據須要支持新的數據庫。
Sqoop實質上是一個MapReduce程序,充分利用MR並行的特色,充分利用MR的容錯性。
此處只是Sqoop的概述,若是想了解Sqoop詳情,請查看Sqoop詳解這篇文章。
Flume是Cloudera開源的日誌收集系統。
目前計算框架和做業類型種類繁多:如MapReduce、Stream、HQL、Pig等。這些做業之間存在依賴關係,週期性做業,定時執行的做業,做業執行狀態監控與報警等。如何對這些框架和做業進行統一管理和調度?
解決方案有多種:
推薦使用2.x.x版本
下載地址:http://hadoop.apache.org/releases.html
推薦使用CDH5版本
下載地址:http://archive.cloudera.com/cdh5/cdh/5/
詳細安裝步驟查看文章:搭建5個節點的hadoop集羣環境(CDH5)
推薦使用HDP2.x版本
下載地址:http://zh.hortonworks.com/downloads/#data-platform
最後建議:關於不一樣發行版在架構、部署和使用方法一致,不一樣之處僅在於內部實現。建議選擇公司發行版,好比CDH或者HDP,由於它們通過集成測試,不會面臨版本兼容性問題。