Cloudera Hadoop 5& Hadoop高階管理及調優課程(CDH5,Hadoop2.0,HA,安全,管理,調優)

1.課程環境html

本課程涉及的技術產品及相關版本:java

技術node

版本web

Linux算法

CentOS 6.5shell

Java數據庫

1.7緩存

Hadoop2.0安全

2.6.0性能優化

Hadoop1.0

1.2.1

Zookeeper

3.4.6

CDH Hadoop

5.3.0

Vmware

10

Hive

0.13.1

HBase

0.98.6

Impala

2.1.0

Oozie

4.0.0

Hue

3.7.0

2.內容簡介

本教程針對有必定Hadoop基礎的學員,深刻講解以下方面的內容:

一、Hadoop2.0高階運維,包括Hadoop節點增長刪除、HDFS和YARN的HA實現,

HDFS Federation實現等

二、搭建本地Yum部署CDH5的重要組件和優化配置

三、Impala、Oozie和Hue的部署、使用操做及調優

四、Hadoop安全認證及受權管理

五、Hadoop各組件性能調優

 

   《Hadoop2.0/YARN深刻淺出(Hadoop2.0、Spark、Storm和Tez)》http://www.ibeifeng .com/goods-435.html

   《Hadoop大數據零基礎高端實戰培訓系列配文本挖掘項目(挑戰年薪50萬)》http://www.ibeifeng .com/goods-428.html

  《基於Greenplum Hadoop分佈式平臺的大數據解決方案及商業應用案例剖析》http://www.ibeifeng. com/goods-377.html

        迪倫老師:某知名500強企業大數據平臺架構師,大數據處理專家。長期從事於大數據基礎架構建設、企業級數據倉庫、大數據分析、挖掘等領域項目的開發及管理。

   熟悉多種技術架構的綜合運用,包括Hadoop、Greenplum、Oracle、Cognos、Datastage等。對於Hadoop生態系統,特別是Hive、HBase、Mahout等開源框架的業務

   應用、   可靠性、基礎架構和高級應用等方面有着豐富經驗。

        迪倫老師在北風網參與的其餘課程連接:

      單品課程:

     《基於Hadoop2.0、YARN技術的大數據高階應用實戰(Hadoop2.0\YARN\MapReduce\數據挖掘\項目實戰) 》 http://www.ibeifeng. com/goods-440.html

     《深刻淺出Hadoop Mahout數據挖掘實戰(算法分析、項目實戰、中文分詞技術)》 http://www.ibeifeng. com/goods-438.html

     《MapReduce/Hbase進階提高(原理剖析、實戰演練)》 http://www.ibeifeng .com/goods-438.html

     《Hadoop2.0/YARN深刻淺出(Hadoop2.0、Spark、Storm和Tez)》http://www.ibeifeng. com/goods-435.html

     《Hadoop大數據零基礎高端實戰培訓系列配文本挖掘項目(挑戰年薪50萬)》http://www.ibeifeng. com/goods-428.html

     《基於Greenplum Hadoop分佈式平臺的大數據解決方案及商業應用案例剖析》http://www.ibeifeng. com/goods-377.html

 

1、Hadoop2.0 動態增長節點

01.1 怎樣添加節點

01.2 添加新的服務器節點

01.3 新節點操做系統配置

01.4 新節點Hadoop配置

01.5 調整新節點副本數

 

2、Hadoop2.0 動態刪除節點

02.1 怎樣刪除節點

02.2 刪除Hadoop2.0集羣節點

02.3 測試監控刪除節點後的集羣

 

3、Hadoop2.0 HDFS HA部署

03.1 HDFS HA的實現方式

03.2 HDFS HA的實現步驟

03.3 HA集羣環境配置

03.4 HA hdfs-site.xml參數配置

03.5 HA其餘參數配置

03.6 JournalNode服務啓動及初始化

03.7 HDFS HA服務啓動及手工切換

03.8 基於ZK自動切換模式的實現

03.9 HDFS HA中ZooKeeper部署

03.10 配置HDFS HA自動切換模式

03.11 HDFS HA自動故障切換測試

 

4、Hadoop2.0 HDFS HA+Federation部署

04.1 HDFS Federation的實現方式及規劃

04.2 HDFS Federation的配置步驟

04.3 配置HDFS Federation

04.4 HDFS Federation服務啓動及測試

04.5 HDFS HA+Federation實現及配置步驟

04.6 HDFS HA+Federation的配置及服務啓動

04.7 HDFS HA+Federation集羣故障模擬測試

 

5、Hadoop升級

05.1 Hadoop內部升級的實現

05.2 Hadoop1.0升級到2.0步驟

05.3 HDFS升級配置操做

05.4 執行HDFS升級並測試驗證

05.5 MapReduce升級

 

6、Hadoop2.0 YARN HA部署

06.1 YARN HA的實現

06.2 YARN HA的配置步驟及其相關參數

06.3 Hadoop2.0 YARN HA配置操做

06.4 YARN HA服務啓動及測試

06.5 YARN HA測試及錯誤處理

06.6 解決YARN HA啓動錯誤的問題

06.7 HDFS+YARN HA故障模擬測試

 

7、Hadoop安全管理深度剖析

07.1-Hadoop安全背景

07.2-Hadoop1.0安全問題及處理機制

07.3 Kerberos基本概念及受權認證過程

07.4 Kerberos在Hadoop中的應用

07.5 Hadoop1.0安全機制的具體實現

07.6 RPC安全之身份認證機制

07.7 RPC安全之服務訪問控制機制

07.8 HDFS安全策略

07.9 Mapreduce安全策略

07.10 Hadoop上層服務的安全策略

07.11 Hadoop1.0安全機制的應用場景

07.12 Hadoop2.0安全認證機制的實現

07.13 Yarn中的各種令牌及其做用

07.14 Hadoop2.0受權機制的實現

 

8、搭建本地yum安裝CDH5 Hadoop集羣

08.1 爲何選擇CDH

08.2 CDH的體系架構

08.3 CDH的集羣規劃

08.4 CDH操做系統配置步驟

08.5 CDH集羣主機名及網絡配置

08.6 操做系統yum源配置

08.7 CDH5的yum源配置

08.8 主機間信任關係的創建

08.9 NTP時間同步服務配置

08.10 JDK安裝

08.11 安裝和配置HDFS步驟

08.12 YUM安裝HDFS

08.13 CDH集羣環境變量配置

08.14 CDH5 HDFS核心配置

08.15 HDFS其餘重要配置及服務啓動

08.16 安裝和配置YARN的步驟

08.17 YARN的安裝

08.18 YARN的核心參數配置

08.19 MapReduce相關參數配置

08.20 服務啓動及驗證

08.21 CDH5集羣測試

08.22 webHDFS的使用

 

9、基於Kerberos認證的Hadoop安全管理

09.1 Kerberos集羣規劃及配置步驟

09.2 Kerberos安裝配置

09.3 Kerberos數據庫建立及服務啓動

09.4 Kerberos的使用及測試

09.5 Kerberos principal和keytab概念剖析

09.6 HDFS上配置Kerberos步驟

09.7 HDFS principal建立及生成keytab文件

09.8 HDFS keytab文件部署

09.9 HDFS安全參數配置

09.10 Namenode服務的安全啓動

09.11 Datanode服務的安全啓動

09.12 HDFS安全使用測試

09.13 YARN配置Kerberos步驟

09.14 YARN principal建立及keytab文件生成部署

09.15 YARN安全參數配置

09.16 YARN服務安全啓動及測試

09.17 自動化集羣管理

 

10、Zookeeper&HIVE&HBASE&LDAP實現Kerberos認證

10.01 Zookeeper配置Kerberos步驟

10.02 經過Yum安裝Zookeeper

10.03 Zookeeper Server配置Kerberos

10.04 Zookeeper Client配置kerberos

10.05 HBase相關概念深度解析

10.06 HBase配置Kerberos步驟

10.07 經過Yum安裝HBase 01

10.08 經過Yum安裝HBase 02

10.09 爲HBase配置Kerberos

10.10 HBase啓動錯誤診斷及測試

10.11 CDH Hive架構及配置Kerberos認證步驟

10.12 安裝HIVE組件及配置PostgreSQL

10.13 Hive的基礎配置

10.14 爲Hive配置Kerberos認證

10.15 Hive shell及Beeline安全訪問測試

10.16 hive與hbase集成原理

10.17 hive-hbase集成安裝配置

10.18 hive-hbase映射表建立

10.19 LDAP基本概念

10.20 LDAP模式設計

10.21 LDAP集成Kerberos配置步驟

10.22 LDAP安裝和基礎配置

10.23 LDAP集成Kerberos及數據庫建立

10.24 導入系統用戶到LDAP

10.25 OpenLDAP客戶端配置和使用

 

11、Impala大數據分析引擎

11.01 什麼是Impala

11.02 Impala架構和進程

11.03 Impala安裝配置步驟

11.04 Impala安裝部署

11.05 Impala配置及服務啓動

11.06 Impala配置Kerberos認證

11.07 Impala啓停故障處理及測試

11.08 Impala的使用

11.09 Impala-shell基本功能的使用

11.10 Impala鏈接查詢

11.11 Impala聚合及子查詢

11.12 Impala分區表的使用

11.13 Impala的優化

11.14 Impala收集統計信息及生成查詢計劃

11.15 HDFS緩存池在Impala中的使用

 

12、Oozie&Hue的使用及安全認證管理

12.01 什麼是oozie

12.02 Oozie安裝和配置步驟

12.03 Oozie安裝和基本配置

12.04 Oozie安全配置及服務啓動 

12.05 Oozie啓動問題處理

12.06 Oozie Mapreduce做業測試

12.07 Oozie經常使用命令及工做流程定義

12.08 Oozie MR&hive&sqoop動做節點配置

12.09 Oozie pig&ssh&java&sw&shell動做節點配置

12.10 Oozie Coordinator做業

12.11 Coordinator動做和應用定義

12.12 Oozie Bundle應用定義

12.13 什麼是Hue

12.14 安裝配置Hue-HDFS&YARN

12.15 Hue配置Hive、Kerberos、Imapala和Zookeeper等

12.16 Hue安裝啓動問題處理

12.17 Hue頁面初始化及查詢問題解決

12.18 Hue控制檯的使用

 

十3、Hadoop2.0受權及資源調度管理

13.01 Hadoop受權管理基礎知識

13.02 服務訪問受權

13.03 服務級受權配置實例

13.04 隊列訪問控制列表

13.05 隊列訪問控制配置實例

13.06 公平調度器配置步驟

13.07 公平調度器配置實例

13.08公平調度器驗證

13.09 容量調度器配置

13.10 容量調度器配置

13.11 容量調度配置測試驗證

13.12 基於標籤的調度器

 

十4、Hadoop壓縮

14.01 hadoop壓縮概念及支持的格式

14.02 hadoop經常使用幾種壓縮格式對比

14.03 壓縮格式的選擇

14.04 Snappy壓縮配置

14.05 Snappy&Gzip壓縮測試

14.06 Hadoop LZO壓縮安裝配置步驟

14.07 cdh5 lzo壓縮安裝

14.08 lzo安裝問題處理

14.09 lzo壓縮配置及測試

14.10 hive配置使用lzo壓縮

14.11 Hive外部表使用lzo壓縮文件

14.12 Hive使用lzo壓縮實例

14.13 hbase壓縮配置

14.14 hbase壓縮測試

 

十5、Hadoop文件存儲格式

15.01 大數據存儲需求及方式

15.02 Hadoop經常使用文件格式

15.03 HDFS塊內三種存儲方式實例

15.04 RCFile的設計和實現

15.05 ORCFile文件結構

15.06 Hive文件存儲格式的選擇

15.07 Hive不一樣文件格式數據加載測試

15.08 多種文件格式查詢存儲效率測試

15.09 RCFile性能測試

 

十6、Hadoop調優

16.01 調優思路

16.02 應用程序優化

16.03 Linux系統優化

16.04 Hadoop實現機制調優

16.05 機架感知策略實現

16.06 Hadoop參數調優綜述及NameNode調優

16.07 Datanode參數調優

16.08 集中化緩存管理

16.09 集中緩存架構和概念

16.10 緩存管理及緩存池命令

16.11 緩存操做實例

16.12 緩存參數配置

16.13 YARN調優概述

16.14 Slave和Container資源分配

16.15 配置資源分配和進程大小屬性

16.16 YARN內存監控

16.17 Reducer調度調優

16.18 Mapreduce其餘關鍵參數調優

 

 

 

  目標一. 掌握Hadoop2.0動態增長和刪除節點的維護操做

  目標二. 掌握經過Hadoop2.0 HDFS&YARN HA+Federation技術來搭建高可用集羣的技能

  目標三. 掌握Hadoop2.0升級操做

  目標四. 熟悉Hadoop安全管理的知識

  目標五. 掌握經過搭建本地yum來部署CDH5 Hadoop集羣,包括HBase、Hive、Impala、Oozie和Hue等

  目標六. 掌握Impala、Oozie和Hue的安裝、使用及優化等

  目標七. 掌握基於Kerberos認證的Hadoop安全管理的技能

  目標八. 掌握Hadoop安全受權管理的技能

  目標九. 掌握Hadoop性能優化的技巧

  <未完待續>

 

  亮點1、Hadoop2.6.0、CDH5.3 等採用的均是目前爲止最新的版本,技術的前沿性能夠保證讓您的技術在二到三年內不會落伍.

  亮點2、理論與實戰相結合,由淺入深。即照顧到基礎學員,又照顧到有必定經驗的學員。

  亮點3、課程全部實例都有操做演示,手把手一步步帶領學員從入門到精通.

 

一.課程針對人羣

   本課程針對掌握必定的Hadoop基礎知識的學員,想經過本項目的學習,深刻掌握Hadoop高階運維、管理和調優技巧的學員。

沒有Hadoop基礎的同窗,可先學習以下課程:

《Hadoop大數據零基礎高端培訓課程》  http://www. ibeifeng. com/hadoop.html

二.我該怎麼學,如何才能學好這門課程,給些建議

   2.一、時間上的安排建議

      本課程共80講,若是您時間上充分,建議以天天2-3講的進度往前學習。 

   2.二、學習要求

      若是您沒有基礎,建議仍是中規中矩的按照課程進度一點一點仔細觀看學習,並必定要把看完的視頻中的代碼本身手敲一遍,以加深理解和記憶

      若是您有基礎,可沒必要按步就搬進行,能夠拿你感興趣的部分去學習,但必定要注意實踐,並學會觸類旁通 

   2.三、講師建議

      1.最好看完視頻以後,拋開視頻,獨立本身去把上課中的示例寫一遍,看本身是否理解,若是不正確,能夠回過頭看再看下視頻,若是反覆,達到真正理解和

       熟練掌握 的目的。

      2.對於課程實戰部分,必定要本身親自動手作一遍,不要知足聽完就OK了

      3. 建議通常聽視頻,通常拿個紙和筆,作一些記錄和筆記,這是一種很是好的學習習慣。

      4. 必定不要過於依賴視頻,要學會看文檔日誌和使用百度,學會思考,學會觸類旁通

      5. 最後祝您學有所成

 

 課程是屬於某個特定的專業技術,掌握該技術後,你能夠從事如下職位的相關工做

    1.Hadoop運維工程師

    2.Hadoop大數據架構師

 

 

相關文章
相關標籤/搜索