bayaim_當前國內外Hadoop的實際使用案例

當前國內外Hadoop的實際使用案例

 


說到Hadoop,不少朋友都想知道到底它是如何被應用的呢?經過下文,筆者就向你們介紹一下具體的狀況。算法

1.Yahoo數據庫

Yahoo是Hadoop的最大支持者,截至2012年,Yahoo的Hadoop機器總節點數目超過420000個,有超過10萬的核心CPU在運行Hadoop。最大的一個單Master節點集羣有4500個節點(每一個節點雙路4核心CPUboxesw,4×1TB磁盤,16GBRAM)。總的集羣存儲容量大於350PB,每個月提交的做業數目超過1000萬個,在Pig中超過60%的Hadoop做業是使用Pig編寫提交的。編程

Yahoo的Hadoop應用主要包括如下幾個方面:後端

  • 支持廣告系統服務器

  • 用戶行爲分析網絡

  • 支持Web搜索架構

  • 反垃圾郵件系統併發

  • 會員反濫用框架

  • 內容敏捷機器學習

  • 個性化推薦

同時Pig研究並測試支持超大規模節點集羣的Hadoop系統。

2.Facebook

Facebook使用Hadoop存儲內部日誌與多維數據,並以此做爲報告、分析和機器學習的數據源。目前Hadoop集羣的機器節點超過1400臺,共計11?200個核心CPU,超過15PB原始存儲容量,每一個商用機器節點配置了8核CPU,12TB數據存儲,主要使用StreamingAPI和JavaAPI編程接口。Facebook同時在Hadoop基礎上創建了一個名爲Hive的高級數據倉庫框架,Hive已經正式成爲基於Hadoop的Apache一級項目。此外,還開發了HDFS上的FUSE實現。

3.A9.com

A9.com爲Amazon使用Hadoop構建了商品搜索索引,主要使用StreamingAPI以及C++、Perl和Python工具,同時使用Java和StreamingAPI分析處理每日數以百萬計的會話。A9.com爲Amazon構建的索引服務運行在100節點左右的Hadoop集羣上。

4.Adobe

Adobe主要使用Hadoop及HBase,同於支撐社會服務計算,以及結構化的數據存儲和處理。大約有超過30個節點的Hadoop-HBase生產集羣。Adobe將數據直接持續地存儲在HBase中,並以HBase做爲數據源運行MapReduce做業處理,而後將其運行結果直接存到HBase或外部系統。Adobe在2008年10月就已經將Hadoop和HBase應用於生產集羣。

5.CbIR

自2008年4月以來,日本的CbIR(Content-basedInformationRetrieval)公司在AmazonEC2上使用Hadoop來構建圖像處理環境,用於圖像產品推薦系統。使用Hadoop環境生成源數據庫,便於Web應用對其快速訪問,同時使用Hadoop分析用戶行爲的類似性。

6.Datagraph

Datagraph主要使用Hadoop批量處理大量的RDF數據集,尤爲是利用Hadoop對RDF數據創建索引。Datagraph也使用Hadoop爲客戶執行長時間運行的離線SPARQL查詢。Datagraph是使用AmazonS3和Cassandra存儲RDF數據輸入和輸出文件的,並已經開發了一個基於MapReduce處理RDF數據的Ruby框架——RDFgrid。

Datagraph主要使用Ruby、RDF.rb以及本身開發的RDFgrid框架來處理RDF數據,主要使用HadoopStreaming接口。

7.EBay

單集羣超過532節點集羣,單節點8核心CPU,容量超過5.3PB存儲。大量使用的MapReduce的Java接口、Pig、Hive來處理大規模的數據,還使用HBase進行搜索優化和研究。

8.IBM

IBM藍雲也利用Hadoop來構建雲基礎設施。IBM藍雲使用的技術包括:Xen和PowerVM虛擬化的Linux操做系統映像及Hadoop並行工做量調度,併發布了本身的Hadoop發行版及大數據解決方案。

9.Last.Fm

Last.Fm主要用於圖表計算、專利申報、日誌分析、A/B測試、數據集合並等,也使用Hadoop對超過百萬的曲目進行大規模的音頻特徵分析。

節點超過100臺機器,集羣節點配置雙四核XeonL5520@2.27GHzL5630@2.13GHz,24GB內存,8TB(4×2TB)存儲。

10.LinkedIn

LinkedIn有多種硬件配置的Hadoop集羣,主要集羣配置以下:

  • 800節點集羣,基於Westmere的惠普SL170X與2×4的核心,24GB內存,6×2TBSATA。

  • 1900節點集羣,基於Westmere的超微-HX8DTT,與2×6的核心,24GB內存,6×2TBSATA。

  • 1400節點集羣,基於SandyBridge超微與2×6的核心,32GB內存,6×2TBSATA。

使用的軟件以下:

  • 操做系統使用RHEL6.3。

  • JDK使用SUNJDK1.6.0_32。

  • Apache的Hadoop0.20.2的補丁和ApacheHadoop的1.0.4補丁。

  • Azkaban和Azkaban用於做業調度。

  • Hive、Avro、Kafka等。

11.MobileAnalytic.TV

主要使用Hadoop應用在並行化算法領域,涉及的MapReduce應用算法以下。

  • 信息檢索和分析。

  • 機器生成的內容——文檔、文本、音頻、視頻。

  • 天然語言處理。

  • 項目組合包括:

  • 移動社交網絡。

  • 網絡爬蟲。

  • 文本到語音轉化。

  • 音頻和視頻自動生成。

12.Openstat

主要利用Hadoop定製一個網絡日誌分析並生成報告,其生產環境下超過50個節點集羣(雙路四核Xeon處理器,16GB的RAM,4~6硬盤驅動器),還有兩個相對小的集羣用於個性化分析,天天處理約500萬的事件,每個月15億美圓的交易數據,集羣天天產生大約25GB的報告。

使用的技術主要包括:CDH、Cascading、Janino。

13.Quantcast

3000個CPU核心,3500TB存儲,每日處理1PB以上的數據,使用徹底自定義的數據路徑和排序器的Hadoop調度器,對KFS文件系統有突出貢獻。

14.Rapleaf

超過80個節點的集羣(每一個節點有2個雙核CPU,2TB×8存儲,16GBRAM內存);主要使用Hadoop、Hive處理Web上關聯到我的的數據,並引入Cascading簡化數據流穿過各類處理階段。

15.WorldLingo

硬件上超過44臺服務器(每臺有2個雙核CPU,2TB存儲,8GB內存),每臺服務器均運行Xen,啓動一個虛擬機實例運行Hadoop/HBase,再啓動一個虛擬機實例運行Web或應用程序服務器,即有88臺可用的虛擬機;運行兩套獨立的Hadoop/HBase機羣,它們各自擁有22個節點。Hadoop主要用於運行HBase和MapReduce做業,掃描HBase的數據表,執行特定的任務。HBase做爲一種可擴展的、快速的存儲後端,用於保存數以百萬的文檔。目前存儲了1200萬篇文檔,近期的目標是存儲4.5億篇文檔。

16.格拉斯哥大學的TerrierTeam

超過30個節點的實驗集羣(每節點配置XeonQuadCore2.4GHz,4GB內存,1TB存儲)。使用Hadoop促進信息檢索研究和試驗,特別是用於TREC,用於TerrierIR平臺。Terrier的開源發行版中包含了基於HadoopMapReduce的大規模分佈式索引。

17.內布拉斯加大學的HollandComputingCenter

運行一箇中等規模的Hadoop機羣(共計1.6PB存儲)用於存儲和提供物理數據,以支持緊湊型μ子螺旋型磁譜儀(CompactMuonSolenoid,CMS)實驗的計算。這須要一類可以以幾Gbps的速度下載數據,並以更高的速度處理數據的文件系統的支持。

18.VisibleMeasures

將Hadoop做爲可擴展數據流水線的一個組件,最終用於VisibleSuite等產品。使用Hadoop彙總、存儲和分析與網絡視頻觀衆收看行爲相關的數據流。目前的網格包括超過128個CPU核心,超過100TB的存儲,並計劃大幅擴容。

國內Hadoop的應用現狀

Hadoop在國內的應用主要以互聯網公司爲主,下面主要介紹大規模使用Hadoop或研究Hadoop的公司。

1.百度

百度在2006年就開始關注Hadoop並開始調研和使用,在2012年其總的集羣規模達到近十個,單集羣超過2800臺機器節點,Hadoop機器總數有上萬臺機器,總的存儲容量超過100PB,已經使用的超過74PB,天天提交的做業數目有數千個之多,天天的輸入數據量已經超過7500TB,輸出超過1700TB。

百度的Hadoop集羣爲整個公司的數據團隊、大搜索團隊、社區產品團隊、廣告團隊,以及LBS團體提供統一的計算和存儲服務,主要應用包括:

  • 數據挖掘與分析。

  • 日誌分析平臺。

  • 數據倉庫系統。

  • 推薦引擎系統。

  • 用戶行爲分析系統。

同時百度在Hadoop的基礎上還開發了本身的日誌分析平臺、數據倉庫系統,以及統一的C++編程接口,並對Hadoop進行深度改造,開發了HadoopC++擴展HCE系統。

2.阿里巴巴

阿里巴巴的Hadoop集羣截至2012年大約有3200臺服務器,大約30?000物理CPU核心,總內存100TB,總的存儲容量超過60PB,天天的做業數目超過150?000個,天天hivequery查詢大於6000個,天天掃描數據量約爲7.5PB,天天掃描文件數約爲4億,存儲利用率大約爲80%,CPU利用率平均爲65%,峯值能夠達到80%。阿里巴巴的Hadoop集羣擁有150個用戶組、4500個集羣用戶,爲淘寶、天貓、一淘、聚划算、CBU、支付寶提供底層的基礎計算和存儲服務,主要應用包括:

  • 數據平臺系統。

  • 搜索支撐。

  • 廣告系統。

  • 數據魔方。

  • 量子統計。

  • 淘數據。

  • 推薦引擎系統。

  • 搜索排行榜。

爲了便於開發,其還開發了WebIDE繼承開發環境,使用的相關係統包括:Hive、Pig、Mahout、Hbase等。

3.騰訊

騰訊也是使用Hadoop最先的中國互聯網公司之一,截至2012年年末,騰訊的Hadoop集羣機器總量超過5000臺,最大單集羣約爲2000個節點,並利用Hadoop-Hive構建了本身的數據倉庫系統TDW,同時還開發了本身的TDW-IDE基礎開發環境。騰訊的Hadoop爲騰訊各個產品線提供基礎雲計算和雲存儲服務,其支持如下產品:

  • 騰訊社交廣告平臺。

  • 搜搜(SOSO)。

  • 拍拍網。

  • 騰訊微博。

  • 騰訊羅盤。

  • QQ會員。

  • 騰訊遊戲支撐。

  • QQ空間。

  • 朋友網。

  • 騰訊開放平臺。

  • 財付通。

  • 手機QQ。

  • QQ音樂。

4.奇虎360

奇虎360主要使用Hadoop-HBase做爲其搜索引擎so.com的底層網頁存儲架構系統,360搜索的網頁可到千億記錄,數據量在PB級別。截至2012年年末,其HBase集羣規模超過300節點,region個數大於10萬個,使用的平臺版本以下。

  • HBase版本:facebook0.89-fb。

  • HDFS版本:facebookHadoop-20。

奇虎360在Hadoop-HBase方面的工做主要爲了優化減小HBase集羣的啓停時間,並優化減小RS異常退出後的恢復時間。

5.華爲

華爲公司也是Hadoop主要作出貢獻的公司之一,排在Google和Cisco的前面,華爲對Hadoop的HA方案,以及HBase領域有深刻研究,並已經向業界推出了本身的基於Hadoop的大數據解決方案。

6.中國移動

中國移動於2010年5月正式推出大雲BigCloud1.0,集羣節點達到了1024。中國移動的大雲基於Hadoop的MapReduce實現了分佈式計算,並利用了HDFS來實現分佈式存儲,並開發了基於Hadoop的數據倉庫系統HugeTable,並行數據挖掘工具集BC-PDM,以及並行數據抽取轉化BC-ETL,對象存儲系統BC-ONestd等系統,並開源了本身的BC-Hadoop版本。

中國移動主要在電信領域應用Hadoop,其規劃的應用領域包括:

  • 經分KPI集中運算。

  • 經分系統ETL/DM。

  • 結算系統。

  • 信令系統。

  • 雲計算資源池系統。

  • 物聯網應用系統。

  • E-mail。

  • IDC服務等。

7.盤古搜索

盤古搜索(目前已和即刻搜索合併爲中國搜索)主要使用Hadoop集羣做爲搜索引擎的基礎架構支撐系統,截至2013年年初,集羣中機器數量總計超過380臺,存儲總量總計3.66PB,主要包括的應用以下。

  • 網頁存儲。

  • 網頁解析。

  • 建索引。

  • Pagerank計算。

  • 日誌統計分析。

  • 推薦引擎等。

8.即刻搜索(人民搜索)

即刻搜索(目前已與盤古搜索合併爲中國搜索)也使用Hadoop做爲其搜索引擎的支撐系統,截至2013年,其Hadoop集羣規模總計超過500臺節點,配置爲雙路6核心CPU,48G內存,11×2T存儲,集羣總容量超過10PB,使用率在78%左右,天天處理讀取的數據量約爲500TB,峯值大於1P,平均約爲300TB。

即刻搜索在搜索引擎中使用sstable格式存儲網頁並直接將sstable文件存儲在HDFS上面,主要使用HadoopPipes編程接口進行後續處理,也使用Streaming接口處理數據,主要的應用包括:

  • 網頁存儲。

  • 解析。

  • 建索引。

  • 推薦引擎。

相關文章
相關標籤/搜索